12. Jun 2019

AI-Experte Benedikter warnt: Künstliche Intelligenz kann sich gegen Menschen richten

Keynote Roland Benedikter ©Fotodienst Christian Mikes

Eine bessere Zukunft für behinderte, alte und kranke Menschen, die durch den Einsatz Künstlicher Intelligenz (KI) hilfreiche Unterstützung finden? Oder etwa das Schwinden unserer Demokratien oder gar das Ende der Menschheit? Aufrüttelnde Szenarien und brisante Sicherheitsfragen im Zusammenhang mit KI beleuchtete der bekannte Antizipationsforscher und Silicon-Valley-Kenner Roland Benedikter auf dem „15. Information-Security-Symposium in Wien“. Veranstalter waren die Zertifizierungsorganisationen CIS und Quality Austria, die das Symposium heuer unter das Motto stellten: „Künstliche Intelligenz zwischen Mensch und Maschine – Sicher in die Zukunft mit ISO 27001 und ISO 20000“.

Jene unter den mehr als 200 Fachteilnehmern, die eine unterhaltsame futuristische Keynote erwartet haben, wurden auf den Boden sich anbahnender Tatsachen geholt – Roland Benedikter verknüpfte interdisziplinär die Sicht auf Technologie, Soziologie und globale Entwicklungen und warnte deutlich: „KI fördert aufgrund ihrer innewohnenden Logik autoritäres Regieren, weil sie sehr schnelle und direkte Wege zu Erkenntnissen und Entscheidungen ermöglicht. Während die EU in den kommenden Jahren rund 9,5 Mrd. Euro in KI-Forschungsprojekte investieren will, beläuft sich das offizielle KI-Investment Chinas im selben Zeitraum auf 150 Mrd. Euro, wobei Experten eine weit höhere Summe als wahren Wert annehmen.“ Weiters beschrieb Benedikter einen Trend von derzeit stattfindenden Handelskriegen mittels Embargos und Sanktionen zwischen Asien, Amerika und Europa hin zu künftigen Technologiekriegen als neues Mittel zur geopolitischen Positionierung – KI könnte die politischen Verbindungen zwischen den Weltmächten neu ordnen.

Der Forscher räumte ein, dass Anti-Demokratie-Szenarien wohl weither geholt klingen mögen, nannte aber eine Reihe realer Beispiele aus heutigen Realitäten: so etwa die per Modellversuch geplanten Überwachungskameras an Chinas Schulen, um schon frühzeitig potenzielle Regimekritiker erkennen zu können. Gesicht, Gesten und Körperbewegungen der Schüler werden dabei durch intelligente Algorithmen ausgewertet, mit entsprechenden Folgen für „Auffällige“. Die Entwicklung von humanoiden Robotern, Gehirn-Maschine-Schnittstellen und intelligenten Implantaten findet heute unter dem Aspekt der Hilfestellung für Menschen mit Behinderung oder unheilbaren Krankheiten statt. Wenig beachtet würden aber die Folgen für die resultierende Umgestaltung des Menschseins, betonte Roland Benedikter: „Die globale Körperindustrie ist ein gigantischer Markt. Durch Verbindung oder gar Verschmelzung mit KI soll der Mensch über sich selbst hinauswachsen können.“

„Steuerbare Managementsysteme ermöglichen es, die volatilen Faktoren Mensch und Technik in einem Sicherheitssystem integriert abzubilden – Risiken lassen sich so kontinuierlich evaluieren und minimieren“, erklärte Erich Scheiber. Quality Austria CEO Konrad Scheiber bekräftigte: „Auch unsere wertschöpfenden Prozesse werden zunehmend digital und vernetzt. Der IT-Sicherheit wird in Zukunft eine noch viel größere Bedeutung zukommen.“

Als Meta-Trend wird es laut Experten-Schätzungen in rund 80 Jahren etwa gleich viele „Roboter-Personen“ wie Menschen geben. Benedikter wies auf bereits heute ungeklärte juridische Fragen wie „Menschenrechte“ für intelligente e-Personen hin. Immerhin habe der humanoide KI-Roboter Sophia bereits die Staatsbürgerschaft Saudi-Arabiens erhalten. „Entwickler sind selbst erschüttert, wie schnell die Entwicklung geht“, berichtete Benedikter und schloss mit einem überaus ernsten Statement ab: „Oxford-Professor Nick Bostrom und andere Vordenker sehen eine inhärente Gefahr, die nur durch interdisziplinäre globale Zusammenarbeit gebannt werden kann: künstliche Intelligenzen könnten sich zu Super-Intelligenzen weiterentwickeln und in letzter Konsequenz könnten sie sich gegen den Menschen richten. Denn mit zunehmend menschenähnlicher Intelligenz könnte eine Art Lern- und damit auch Erinnerungs- und Vorwegnahme-Bewusstsein der Maschinen entstehen. Sie könnten verstehen, wer allein ihren Stecker ziehen kann – der Mensch.“ Alle diese Herausforderungen seien nur inter- und transdisziplinär zu adressieren. Dazu müssten Regierungen, Zivilgesellschaft und Wissenschaft deutlich intensiver als bisher zusammenarbeiten.

Weitere News & Events

Immer topaktuell informiert

03. Jun 2020

Event: qualityaustria Winners‘ Conference und Verleihung Staatspreis Unternehmensqualität 2020

08. Aug 2019

Die Zukunft beginnt jetzt!

Startschuss für die Digitalisierung in der Medizin.

Mehr erfahren
26. Jul 2019

Nachruf: TR Ing. Viktor Seitschek

Sein Pioniergeist bleibt unvergessen.

Mehr erfahren
24. Jul 2019

IFS Update 2020/2021

Welche Änderungen kommen auf Sie zu?

Mehr erfahren
23. Jul 2019

Die neue Version 5 des FSSC ist da

Was sind die wichtigsten Neuerungen?

Mehr erfahren
16. Jul 2019

Quality Austria wird NQR-Servicestelle

Der Start soll noch im Oktober 2019 erfolgen.

Mehr erfahren
13. Jul 2019

FutureLAB „Qualität in der Circular Economy“

Pioniere aus der Praxis, Wissenschaftler und Studierende im Dialog.

Mehr erfahren
12. Jul 2019

ISO 9001:2015-Zertifizierung: Qualitätsfokus bei MOOCI

MOOCI als eines der wenigen Start-Ups erfolgreich zertifiziert.

Mehr erfahren
27. Jun 2019

QMD Services hat Bewerbung als „Benannte Stelle für Medizinprodukte“ eingereicht

Im Juni 2019 wurde ein Antrag auf Konformitätsbewertungstätigkeiten gestellt.

Mehr erfahren
27. Jun 2019

Kritische Unternehmensprozesse identifizieren und Betriebsausfälle verhindern

Business Continuity Management (BCM)

Mehr erfahren
24. Jun 2019

Die neue EU-Medizinprodukte­verordnung (MDR)

Übergangsfrist endet im Mai 2020

Mehr erfahren
+43 732 34 23 22