Herrschaft der Maschinen?

Herrschaft der Maschinen?

Irren ist menschlich – aber nicht allein menschlich: Nachdenken über KI und Kontrollverlust, zuletzt am Beispiel der Flieger-Katastrophe von Boeing

Das Schlagwort von der Roboterrevolution macht die Runde. In Zeitungsmeldungen und TV-Talks macht das Thema gerade Furore, hat längst die Aura von Science Fiction und Tüftlertum verlassen. Die Industrie baut schon lange auf Robotik in der Produktion und setzt auf Effizienz; die Leistungen der Künstlichen Intelligenz (KI) vervielfachen sich unterdes seit Jahren – in immer kleineren Zeitabständen. Da zeigen sich immer erstaunlichere Errungenschaften und Anwendungsmöglichkeiten.

Jedoch werden zugleich eine ganze Reihe von Fragen aufgeworfen, die offenbar mit dem Tempo der digitalen Evolution nicht Schritt halten können. Fragen, die tödliche Konsequenzen einschließen, wie noch zu zeigen sein wird.

Immer mehr Roboter

Zunächst aber die Frage: Wie viele Roboter gibt es eigentlich auf der Welt? Verlässliche Zahlen gibt es nur für die schon genannten Industrieroboter, deren Zahl von der International Federation of Robotics (IFR) regelmäßig erhoben wird. Demnach gab es 2016 weltweit etwa 1,8 Millionen Industrieroboter. Im kommenden Jahr (2020) sollen es bereits drei Millionen sein. Die Staaten mit der größten Industrieroboterdichte sind Südkorea und Singapur, mit erheblichem Abstand folgen Deutschland und Schweden (Quelle: IFR 2018).

Roboter (16 Bilder)

Pepper ist darauf programmiert menschliche Gesten und Mimik zu erkennen. Bilder: © Xavier Caré  /CC-BY-SA-4.0

Unter den Begriff „Roboter“ fallen indes nicht nur die Helfer in Industrie und Produktion. Intelligente Maschinen haben beinahe alle Bereiche der Arbeits- und Lebenswelt erobert: Sie schlüpfen in die Rolle von Köchen oder Polizisten (so bei der kommenden Weltausstellung in Dubai), Dirigenten (in Pisa), sie helfen Kranken, töten Terroristen (und nebenbei Zivilisten), sie spielen Schach oder Go, regeln Verkehrsströme, steuern Autos und Flugzeuge, verschlanken Arbeitsprozesse, sie rationalisieren, standardisieren, kollaborieren, assistieren, korrigieren, optimieren – und manchmal treffen sie fatale Entscheidungen oder sind zumindest daran beteiligt.

Vom Fließbandwerker zum Companion Robot

Meistens sind es Geschichten über menschenähnliche Roboter und denkende Maschinen, die unsere Vorstellungen von Künstlicher Intelligenz prägen. Da spielt die Phantasie eine große Rolle, so auch, wenn wir von spektakulären Errungenschaften hören. Die britische Firma Moley Robotics etwa bietet eine robotergesteuerte Küche an, die Frühstück, Mittag- und Abendessen zubereiten kann.

2013 machte der Roboterastronaut „Kirobo“ Schlagzeilen, er sollte den japanischen Astronauten Koichi Wakata auf der Internationalen Raumfahrtstation (ISS) bei Laune halten und ihm unter anderem die Anweisungen der Bodenstation ausrichten. Entstanden war der 34-cm-Zwerg nach dem Comic-Helden Tetsuwan Atomu, einer berühmten japanischen Roboterfigur.

Roboterastronaut „Kirobo“

Auch aus Japan kommt eine sprachgesteuerte 3-D-Lebensgefährtin namens Gatebox, die sprechen und Textnachrichten produzieren kann. Sie übernimmt das morgendliche Wecken, erklärt das Wetter und bedient Funktionen im Haushalt wie Beleuchtung, Heizung oder Waschmaschine.

Im Sommer 2014 wurde in einem Vorort von Tokio ein smarter Begleiter namens „Pepper“ vorgestellt. Pepper, „der erste humanoide Roboter“, 1,20 m groß, verfügt über Berührungs- und Sonarsensoren, Kameras und Laserscanner und ist, derart hochgerüstet, als „Roboter-Gefährte“ (companion robot) und „persönlicher Roboter“ (personal robot) konzipiert. Ihm gelingt es, Menschen und deren Mimik und Gestik zu analysieren und auf diese Emotionszustände entsprechend zu reagieren. Seine Sprechweise liegt in „hoher kindlicher Stimmlage“, das soll ihn liebenswert machen. Die Startauflage von 1000 Exemplaren im Internet war 2015 innerhalb von einer Minute ausverkauft.

Seit dem Spätsommer 2016 ist Pepper auch in Europa zu haben. Er verfügt über Sprachapplikationen und kann beredt Kaffeemaschinen an den Mann bringen oder in Bibliotheken Auskunft geben. An der TH Wildau wird der Roboter schon als Hilfs-Bibliothekar eingesetzt.

„Smart Dust“ – Kunst per Algorithmus

Eine systemisch weiter entwickelte Neuheit ist das kognitive Assistenzsystem „Amelia“ der US-Firma IPsoft, New York. Es trägt verblüffend menschliche Züge („The Most Human AI“) und wird als intelligenter Helfer angepriesen:

…much more than just a chatbot — she’s a cognitive assistant.

IPsoft

Die virtuelle Agentin aus smartem Staub stellt sich dar als Forschungsresultat von Jahrzehnten. Amelia ist eine Schöpfung aus Mathematik, Gehirn- und Neurowissenschaften. Laut Herstellerangaben nutzt die Wunderfrau jede der acht kognitiven Kernkompetenzen des menschlichen Gehirns, um unvergleichliche Fähigkeiten zu liefern und übertrifft damit bloße Chatbots in jeder Hinsicht. Sie verfügt über komplexe Sprach- und Verständnisfähigkeiten („context switching, intent recognition and more“).

Auch vor der Kunst macht die künstliche Intelligenz nicht halt. Das Auktionshaus Christie’s sorgte mit der Versteigerung eines KI-generierten Porträts für Aufsehen. Der verschwommene Druck mit dem Titel „Edmond de Belamy“ zeigt einen Mann in dunkler Kutte mit weißem Kragen, der an Porträtmalerei des 17. oder 18. Jahrhunderts erinnert.

Signiert ist das Werk mit der Chiffre „min G max D Ex[log(D(x))]+Ez[log(1-D(G(z)))]“, gemeint ist damit der Algorithmus, der das Werk hervorbrachte. Den Zuschlag erhielt ein anonymer Bieter, der sich den Spaß rund 380.000 Euro kosten ließ – wer die Rechte am Bild besitzt, bleibt freilich unklar.

Detection, Prediction, Optimization

Über militärische KI-Nutzungen hat Telepolis regelmäßig berichtet. Drohnen töten „smart“ auf Knopfdruck und auf große Entfernung. Rüstungskonzerne wie Rheinmetall entwerfen den Infanteristen der Zukunft und statten den Krieger von morgen mit utopisch anmutender Technik aus. Cyberinsekten und Miniroboter finden militärische Verwendung oder Einsatz bei der Exploration von Bodenschätzen oder in der Archäologie, so zum Beispiel bei der Erkundung der ägyptischen Pyramiden und ihrer virtuellen Dokumentation. Als ein besonderes Erkundungsfeld rücken Luftfahrt und Straßenverkehr in den Fokus, wo zunehmend Systeme erprobt werden oder zum Einsatz kommen, die (derzeit noch?) teils hoch problematisch sind.

Bei Testfahrten sogenannter autonomer Fahrzeuge ist es bereits zu tödlichen Unfällen gekommen. Dem gegenüber punkten ausgeklügelte Projekte wie „City Brain“ von Alibaba, ein cloudbasiertes System, das Einblicke in die Stadt der Zukunft gewährt („Empowering cities“). Mobilität steht hier selbstverständlich an vorderster Stelle, der Verkehr wird intelligent und in Echtzeit geregelt, dabei geht es logisch voran mittels intelligenter Verfahrensschritte, sie heißen im konkreten Fall u.a. Detection, Prediction und Optimization.

Die Plattform Moral Machine bietet Anschauungsunterricht, wie Menschen zu moralischen Entscheidungen stehen können (oder sollten), die von intelligenten Maschinen, wie z.B. selbstfahrenden Autos, getroffen werden, und zeigt anhand von Beispielen moralische Dilemmata.

Mensch-Maschine: Thema im „Wissenschaftsjahr 2019“

Das „Wissenschaftsjahr 2019“, eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD), stellt KI in den Fokus und nähert sich dem Thema in vielen Facetten und Fragen. Wie eigentlich lernen Maschinen? Haben sie eigene Rechte? Warum ist die Mensch-Maschine-Kommunikation so kompliziert? Woher kommt das Unbehagen, sich mit menschenähnlichen Robotern zu unterhalten? Einen besonderen Stellenwert nehmen der Schutz der Privatsphäre und der Daten ein. Ein Filmprogramm gibt Kindern und Jugendlichen Denkanstöße zu elementaren Fragen und macht sie bekannt mit einigen denkenden Maschinen, die in der Filmgeschichte unvergessen sind.

Eine Frage, die noch kaum diskutiert wird, ist, inwieweit die künstliche Realität die „echte“ entwertet. Es gilt allgemein als hipp und hochwertig, wenn etwas digital daherkommt. Das lernen schon Kinder. Aber wie mit den künstlichen Realitäten umgehen? Zumal, wenn die Grenzen verschwimmen und Echtes von Gemachtem kaum noch unterscheidbar ist. So wie im Fall synthetischer Porträts von Menschen – Menschen, die es in der Realität nie gab, die aber wirklichen, tatsächlichen Menschen täuschend ähnlich sind (also nicht, wie im Fall des KI-Drucks „Edmond de Belamy“, einen Menschen nur nebelhaft zeigen).

Viele Gesichter – und keines ist echt

Führend auf diesem Gebiet ist das US-Unternehmen Icons8. Auf seiner Webseite „generated.photos“ hat die Firma jüngst 100.000 künstlich erzeugte Datenbank-Bilder veröffentlicht, die angeblich ohne Persönlichkeitsrechte auskommen. Die computergenerierten Bilder stehen in einem Google-Drive zum Download bereit und können kostenlos verwendet werden.


Computergenerierte Porträtbilder von Icons8


Der Computer hatte hier allerdings nicht allein das Sagen. Es wurden an die 30.000 Bilder von 69 Models ausgewertet, was bedeutet, es gab echten menschlichen Input. Mit diesem „Trainingsmaterial“ wird das System quasi „angelernt“. Zum Einsatz kommt die Software „StyleGan“ des US-Chip-Konzerns Nvidia. Gan steht für: Generative Adversarial Network.

Das Ganze lässt an künstliche Wesen denken, die von Menschen nicht mehr zu unterscheiden sind. Das wirft die Frage auf – und die gilt eingeschränkt auch schon für bloße Porträts -, welche Rechte und Lebensansprüche virtuelle Personen haben. In der Realität gibt es bereits Pflege-, Unterhaltungs- und Sexroboter, insofern die Frage: Wann kommt der Punkt, an dem dieses Thema relevant wird? In Spielfilmen wie Ex Machina (2015) oder Blade Runner 2049 (2017) wird die Problematik anschaulich auf den Punkt gebracht.

Irren ist menschlich. Aber nicht nur menschlich

So etwa in Ex Machina, wo es zwischen einem jungen Programmierer, seinem Chef und der Roboterfrau Ava zum Machtkampf kommt. In dem Sci-Fi-Klassiker „2001: A Space Odyssey“ ist es der legendäre Bordcomputer HAL 9000, der nach anfänglicher Kooperation zunehmend autonome Entscheidungen trifft – den gezielt herbeigeführten Exitus der Raumschiff-Crew eingeschlossen, die doch eigentlich zum Überleben auf ihn angewiesen war. Dabei entscheidet HAL nach übergeordneten Zielen, nämlich dem Ziel der gesamten Mission, wie er selber äußert und offenbar auch „meint“. Die Menschen stehen diesem übergeordneten Ziel letztlich im Weg – und müssen daher weichen. Sterben aus purer Logik.

Dieser Gedanke befeuert letztlich auch die Handlung der „Terminator“-Reihe, in der eine böse künstliche Intelligenz namens Skynet die totale Herrschaft anstrebt. In dem Blockbuster mit Arnold Schwarzenegger in der Hauptrolle führen Maschinen Krieg gegen die Menschheit, weil Skynet die Menschen als größte Bedrohung für den Planeten ausgemacht hat. Zu Ende gedacht, würde die Herrschaft der Algorithmen in einem menschenleeren Universum münden, in dem der Mensch nur ein Störfaktor wäre.

Real Humans. Perfect Eternity

„Echte Menschen“, so verstanden, erweisen sich als Repräsentanten einer ärmlichen, mit Fehlern behafteten, antiquierten Vergangenheit, einer bloßen Vorstufe von Vernunft. Konsequenterweise gehören die Humans abgelöst durch immergleiche Instanzen und nimmermüde (virtuelle) Charaktere, die niemals irren und niemals unglücklich sein werden. Im Ergebnis das vollkommene Universum, in dem an die vormals existierende Menschheit – zusammen mit ihren Beschädigungen und Sehnsüchten – nur noch deren unvollkommener Input erinnert. Input, der durch lernende Maschinen optimiert und letztlich getilgt wird. Für eine perfekte Ewigkeit.

Diese Art von Science Fiction thematisiert unsere Ängste vor Kontrollverlust und behandelt unsere Ohnmacht angesichts der eigenen Unterlegenheit. Die von uns geschaffene Technologie schickt sich an, die Macht an sich zu reißen, und trifft autonome Entscheidungen. Die gehorchen zwar Algorithmen, erweisen sich jedoch als fatal für unser Überleben.

Auf dem Weg zur Maschinen-Autonomie. Fragezeichen

Maschinengesteuerte Systeme von heute ersetzen den Menschen vielleicht (noch) nicht in der Weise, aber sie mögen bei bestimmten hierarchisch angelegten Prozessen bereits die Oberhand gewinnen. So in der Aeronautik. Die Fliegerei steht aktuell noch unter Schock nach dem Absturz zweier Passagiermaschinen der Baureihe Boeing 737 Max 8 innerhalb kürzester Zeit, bei denen die eigens entwickelten, hoch komplexen Steuerungssysteme unter Verdacht gerieten.

Die Technikphilosophin (seit 2019 an der Georg-August Universität Göttingen) Catrin Misselhorn findet: Roboter sollen uns helfen – und nicht gängeln. Und sie fordert: Maschinen sollten nicht über Menschenleben entscheiden.

Je komplexer und autonomer die Maschinen werden, desto wahrscheinlicher ist es, dass sie auch problematischen Situationen gegenüberstehen.

Catrin Misselhorn

Hier ist ein enorm relevanter Punkt angesprochen. Misselhorn unterscheidet verschiedene Grade auf dem Weg zur Maschinen-Autonomie. Dabei spielen mehrere Faktoren eine Rolle, jeder von ihnen kann mehr oder weniger stark ausgeprägt sein:

  1. Interaktivität: Eine Maschine kann durch Sensoren, Kameras, Sprachmodule usw. mit ihrer Umwelt kommunizieren. Sie kann erkennen, wenn sich zum Beispiel eine Verkehrssituation verändert.
  2. Anpassungsfähigkeit: Eine Maschine kann ihr Verhalten ändern, wenn sich Situationen verändern.
  3. Handeln aus Gründen: Eine Maschine verfügt über eine Wissensbasis zu einem Thema (zum Beispiel die Regeln für ein Kartenspiel), sie kennt einen gewünschten Endzustand (weitere Kartenspiele lernen) und ist in der Lage, mit Hilfe maschineller Lernstrategien dieses Ziel zu erreichen.

Roboterethik?

Man wird kaum von einem bisher existierenden Roboter sagen können – und auch nicht von einem selbstfahrenden Fahrzeug -, dass er oder es „autonom“ handle in dem Sinne einer vollständig eigenständigen Wahl oder Entscheidung (auto-nomos, eigengesetzlich) eines Handlungssubjekts.

Selbst wenn wir eine hoch entwickelte und lernfähige KI eines Tages als elektronische Person ansehen würden, wäre diese, wie der Wirtschafts- und Informationsethiker Oliver Bendel (Dozent an der Hochschule für Wirtschaft, Nordwestschweiz) es kürzlich formulierte, „nicht Träger von Verantwortung im philosophischen Sinne, [könnte] aber eine Haftung übernehmen“. Philosophisch gesehen, bliebe die Verantwortung beim Menschen; von der Warte einer Haftung aus wäre es aber vorstellbar, eingetretene Unfälle oder entstandene Schäden aus einem Fonds zu bezahlen. .

KI an Bord – Helfer oder Gegner des Piloten?

Solche Überlegungen dürften allerdings bei dem hier abschließend zu erwähnenden Fall zweier spektakulärer Luftfahrtkatastrophen aus jüngerer Zeit kaum greifen. Die Rede ist von den Unglücksmaschinen vom Typ Boeing 737 MAX 8, einer Neuauflage der altbewährten Boeing 737. Nach zwei Flugzeugabstürzen waren insgesamt 346 Opfer zu beklagen. Der erste Crash erfolgte im Oktober 2018 in Indonesien, der zweite folgte mit – aus heutiger Sicht – beinahe unausweichlicher Konsequenz im März 2019 in Äthiopien. Die Ähnlichkeit beider Abstürze nur kurz nach dem Start war und ist frappierend und beschäftigte sehr bald die Experten und bestimmte ebenso die öffentliche Diskussion (Kampf zwischen Pilot und Computer).


Boeing 737 MAX 8. Bild: Acefitt / CC-BY-SA-4.0


Bei näherem Hinsehen wurde klar, der US-Luftfahrtkonzern, der dabei war, die „neue“ 737 weltweit in Stellung zu bringen, hatte auf die komplette Neuentwicklung verzichtet und setzte stattdessen bei der Neu- bzw. Umkonstruktion auf zwei Komponenten, nämlich (a) die Wahl neuer (voluminöser) Triebwerke und (b) auf eine intelligente Software namens MCAS (Maneuvering Characteristics Augmentation System), die offenbar dazu gedacht war, die veränderte Statik bzw. Aerodynamik des Fliegers entsprechend zu justieren oder, in anderen Worten, elektronisch auszugleichen.

Und genau hier, so sah es schon nach Erscheinen des Zwischenberichts aus, scheint das Problem zu liegen (Minuten des Schreckens).

Spezielle Sensoren sollen bei der Max 8 anzeigen, ob sich die Flugzeugnase zu stark hebt. Das geht gut, solange der Computer von den Sensoren keine irrigen Daten erhält. Andernfalls betätigt sich das Programm unter entsprechenden Umständen als fataler Copilot – und steuert den Jet aus einem eigentlich regulären Flugverlauf heraus, entgegen jedem „echten“ Erfordernis, plötzlich drastisch um. Für die Hierarchie an Bord kann das bedeuten, dass der menschliche Pilot (der eigentlich Herr des Verfahrens sein sollte) zur nachrangigen Größe wird. Mit beträchtlichen Folgen für Crew und Passagiere, vor allem dann, wenn die Piloten die Quelle falscher oder unvollständiger Informationen nicht unverzüglich und korrekt diagnostizieren können.

Ein Fazit aus den Vorfällen: Moderne Flugzeuge mit ihren diffizilen und interagierenden Systemen und den unter Umständen viel zu vielen Ebenen zwischen Quellinformation und dem menschlichen Entscheider machen das Fliegen nicht unbedingt sicherer. Im Gegenteil, die hochentwickelte (und hochkomplexe) KI-Architektur moderner Passagierjets kann zur tödlichen Gefahr werden. Auch der europäische Konkurrent Airbus ist hiervor nicht gefeit. Airbus nahm die Crahs der US-Jets zum Anlass, seinerseits Softwarelösungen einer erneuten Prüfung zu unterziehen. Offenbar zeigt man sich sensibilisiert und bereit, die aktuellen Sicherheitsarchitekturen im Flugzeugbau zu überdenken.

Humanoide Illusionen

Vor kurzem ist der Schlussbericht des internationalen Panels erschienen, dessen Aufgabe es war, die Max-8-Abstürze zu untersuchen. Das Gremium bestand aus 29 Fachleuten, Mitgliedern von US-Agenturen und Luftfahrtbehörden aus Europa, Kanada, China und sechs weiteren Ländern. Der Bericht, der im Oktober vorgelegt wurde, nennt sich: Joint Authorities Technical Review (JATR). Voraus gingen rund fünf Monate Analyse.

Einige der Essentials lassen aufhorchen. Während des Zertifizierungsprozesses änderte Boeing dem Bericht zufolge das Design von MCAS (anders gesagt: der KI) und machte es „leistungsfähiger“, aber Schlüsselpersonen bei der Kontrollbehörde, der amerikanischen Federal Aviation Administration (FAA), wurden nicht ausreichend über diese Änderungen informiert. Außerdem spricht der Bericht ein weiteres gravierendes Problem an: Die FAA verfügte nicht über das Fachwissen, um ein derart komplex-automatisiertes Flugsystem (wiederum: die KI des Fliegers) zu verstehen.

Ein KI-System, das letztendlich für eine irrige Detection (Quelldaten) verantwortlich war, zu einer fehlerhaften Prediction im Flugverlauf führte und im Ergebnis zwei tödliche Abstürze von Max-Jets produzierte. Der Chef des Panels, Christopher Hart, äußerte gegenüber Reportern, der FAA habe schlicht das technologische Know-how der Branche gefehlt. Zudem habe die Kontrollbehörde überhaupt Schwierigkeiten, Spitzeningenieure einzustellen. MCAS habe sich „von einem relativ gutartigen System zu einem nicht so gutartigen System“ entwickelt – ohne ausreichendes Wissen der FAA, so Hart. Und man darf hinzufügen: Ohne ausreichende KI-Kompetenz der FAA. Und offenbar gilt Letzteres für die Entwickler im Hause Boeing selbst, die ihren humanoiden Illusionen erlegen sind.

Die Rede ist hier vom Knackpunkt der immer komplexer werdenden Bordsysteme und von der Fragwürdigkeit der Schnittstelle Maschine-Mensch, die bei Boeing zur Katastrophe führte. Die rasche, unter offenbarem Zeitdruck (und Konkurrenzdruck?) erfolgte Evolution einer Steuerungssoftware (anders gesagt: künstlicher Intelligenz), noch dazu im Kontext einer ehrgeizigen Neuentwicklung bzw. Umkonstruktion mit all ihren beachtlichen statischen, physikalischen und aerodynamischen Implikationen, ergab in der Summe keine gute Lösung. Die Frage der Moral beantwortet das Abschlusspapier nicht, das Panel gibt aber 12 Empfehlungen zur Verbesserung der FAA-Zulassung neuer Flugzeuge.

„Erosion der Flugfähigkeit“

Im Mittelpunkt dieser Empfehlungen steht denn in der Tat die immer komplexer werdende Automatisierung, die es immer weniger wahrscheinlich macht – so Hart -, dass die Piloten sie vollständig verstünden. Experten ergänzen, dass sie – diese Automatisierung – bei vielen Piloten zu einer Erosion der Flugfähigkeiten geführt hat. Dies macht sich dann besonders im Fall von Stress oder systemischen Fehlfunktionen bemerkbar.

Da die Automatisierung immer komplexer wird, ist es weniger wahrscheinlich, dass die Piloten sie vollständig verstehen und eher Probleme haben.

Christopher Hart, Vorsitzender des Untersuchungspanels JATR

Jon Weaks, Präsident der Pilotengewerkschaft bei Southwest Airlines, betonte in einer Erklärung, dass die von der Task Force aufgeworfenen Probleme die Beschwerden seiner Gewerkschaft widerspiegelten. „Als Piloten müssen wir darauf vertrauen können, dass Boeing alle Informationen liefert, die wir für den sicheren Betrieb unserer Flugzeuge benötigen“, sagte Weaks. „Im Falle der 737 Max ist das absolut nicht passiert.“

„Unangemessener Druck“

Der Kommissions-Bericht fand Anzeichen dafür, dass Boeing „unangemessenen Druck“ auf Mitarbeiter ausübte, die an der Max-Zertifizierung arbeiteten. Aus den Bewertungen der Kommission ergeben sich eine Reihe weiterer Fragen, so unter anderem in Bezug auf die Ablöse der 25 Jahre alten 777, die durch die 777X ersetzt werden soll. Man kann nur hoffen, dass die Verantwortlichen aus den Fehlern und Pannen lernen, die zum Tod von 346 Opfern geführt haben, und klare Konsequenzen ziehen.

Künstliche Intelligenz tritt (auch) als Bedrohung auf, diese Weisheit ergab ein Blick in die Filmgeschichte. Eines ist jedenfalls klar und auch unumkehrbar: Eine neue industrielle Revolution ist mitten im Gange, und das nicht im Kino, sondern in der Realität. Superintelligente, im Optimalfall gefügige und jedenfalls unermüdliche Roboter führen komplexe Aufgaben aus. Maschinengesteuerte Systeme ersetzen den Menschen.

Ob KI dabei zur besten Lösung oder zum größten Problem wird, hängt allein von uns ab. Von den Real Humans.
(Arno Kleinebeckel)

Read More

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.