Big Data und KI: Brauchen wir zukünftig eine Maschinenethik?

Ein Beitrag von Dr. Stefan Wess, CEO und geschäftsführender Gesellschafter der Empolis Information Management GmbH.

Der 15. März 2016 war ein historischer Tag für die Entwicklung der Künstlichen Intelligenz (KI). Die selbstlernende Software AlphaGo von Google Deepmind schlug beim asiatischen Brettspiel „Go“ den südkoreanischen Profispieler Lee Sedol, der als der weltweit beste Spieler (9 Dan) seiner Zunft gilt. Go ist wegen der fast unendlich vielen Spielzüge noch viel komplizierter als Schach und daher ein besonders harter Prüfstein für eine (spielende) Maschine. Experten zeigten sich anschließend tief beeindruckt und stellten fest, dass AlphaGo während den Begegnungen einige Züge gemacht hatte, die kein menschlicher Spieler so vollzogen hätte.

Die Menschheit wird seit Jahrzehnten durch die Errungenschaften der KI überrascht. Das bislang berühmteste Ereignis fand 1997 statt, als der IBM-Supercomputer „Deep Blue“ die Schachlegende Garri Kasparow ebenfalls völlig unerwartet besiegte. 2011 schlug dann „Watson“, ein ebenfalls von IBM entwickelter Computer, live vor einem Millionenpublikum die Champions Brad Rutter und Ken Jennings in der weltweit beliebtesten TV-Quizshow „Jeopardy“.

Die Spielstärke von AlphaGo basiert auf künstlichen neuronalen Netzwerken, also die Abbildung des menschlichen Nervensystems, sodass die Software ähnlich wie Menschen denken und lernen kann. Die Anfänge gehen auf Warren McCulloch und Walter Pitts zurück. Diese beschrieben bereits 1943 Verknüpfungen von elementaren Einheiten als eine der Vernetzung von Neuronen ähnliche Art von Netzwerk, mit dem sich praktisch jede logische oder arithmetische Funktion berechnen lassen könnte. Große Fortschritte in der Forschung wurden hier in den achtziger Jahren erreicht, der endgültige Durchbruch gelang aber erst im Jahre 2012 durch die sogenannten Deep-Learning-Algorithmen. Die entscheidenden Treiber waren hier die Verfügbarkeit von großen Datenmengen (Big Data) zum Training dieser Verfahren sowie die nach dem Mooreschen Gesetz deutlich gestiegene Rechenpower der Computer bzw. die Nutzung von hochspezialisierten Chips. Ein erfolgreiches Training der neuronalen Netze konnte nun in wenigen Stunden, statt wie früher in Monaten, durchgeführt werden. Trotzdem ist es bis zu einer mit dem Menschen vergleichbaren Intelligenz noch ein ziemlich weiter Weg.

Für die Bemessung, ob KI „intelligent“ ist, entwickelte der britische Mathematiker Alan Turing den berühmten „Turing-Test“: Eine Testperson kommuniziert über längere Zeit parallel mit einem anderen Menschen und einer Maschine über ein Chat-Programm. Mensch und Maschine versuchen die Testperson davon zu überzeugen, dass sie denkende Menschen sind. Wenn die Testperson nach der Unterhaltung nicht mit Bestimmtheit sagen kann, welcher der Gesprächspartner ein Mensch oder eine Maschine ist, hat die Maschine den Turing-Test bestanden und darf als intelligent gelten. Bislang ist dies allerdings noch keiner Maschine wirklich gelungen.

Trotzdem: KI-Technologien werden bereits heute in vielen Bereichen erfolgreich eingesetzt, meistens ohne dass wir dies als Nutzer direkt bemerken. In der Industrie sind intelligente Roboter längst im Einsatz. In ähnlicher Weise wird die Technologie in der Raumfahrt eingesetzt, beispielsweise für die autonome Steuerung von Robotern und Sonden. Im Internet basieren persönliche Empfehlungen zu Produkten, Musik oder Filmen und die personalisierte Werbung oftmals schon auf KI-Algorithmen. Auch im direkten Umfeld wächst die Bedeutung von KI: Smartphone-Assistenten wie SIRI, Cortana oder Google Now machen das Leben der Nutzer leichter und vergrößern die Akzeptanz solcher Technologien. Auch das selbstfahrende Auto (bzw. Assistenzsystem) konnte nur mit KI-Technologien Wirklichkeit werden. Das sogenannte „Internet der Dinge“, bei dem es beispielsweise um vernetzte und intelligente Alltagsgegenstände wie Kühlschränke oder Heizungssysteme geht, wird diese Entwicklung sicher noch weiter treiben.

Mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), zahlreichen Projekten, Hochschulen und Unternehmen, ist Rheinland-Pfalz ein weltweites Zentrum der KI-Forschung und -Anwendung. Laut einer im Juli veröffentlichten Umfrage von MIT, Sloan und Deloitte unter 3.700 Managern aus aller Welt, wird die Künstliche Intelligenz als der wichtigste Technologietrend in den nächsten 5 Jahren angesehen. Intelligente Big-Data-Technologien, die auf KI basieren, spielen bei der digitalen Revolution eine sehr große Rolle. Erst diese Technologien ermöglichen die sinnvolle Strukturierung und Interpretation der anfallenden enormen Datenmengen nahezu in Echtzeit. Somit unterstützen Big-Data-Anwendungen im Gesundheitswesen die Diagnose und Therapie von Erkrankungen und optimieren den Einsatz von Industrie-4.0-Lösungen sowie von Stromnetzen und Verkehrssystemen.

Schaut man sich die unterschiedlichen technologischen Entwicklungen der Vergangenheit an, so fällt auf, dass diese oft exponentiell steigend verlaufen. Insofern wäre es nicht verwunderlich, wenn auch die Entwicklung im Bereich KI in den nächsten Jahren immer größere Sprünge macht. Dabei darf man weder die Risiken unterschätzen noch die Chancen, die sich dadurch bieten, ungenutzt lassen. Aus diesem Grund wird heute bereits in Richtung „Maschinenethik“ diskutiert: Gibt es einen Weg, einer Maschine unsere Werte und Moralvorstellungen zu vermitteln und sicherzustellen, dass die Maschine diese als Maßstab für ihr eigenes Handeln anlegt? Diese Diskussion steht noch ganz am Anfang, wird aber trotzdem gerade weltweit, auch im Rahmen der Vereinten Nationen, sehr intensiv geführt.

Dass diese Diskussionen nicht nur im völlig theoretischen Raum stattfinden, zeigen beispielsweise die teilweise heftigen öffentlichen Reaktionen auf Autounfälle mit Fahrzeugen, die schon heute im „Autopilot-Modus“ auf öffentlichen Straßen unterwegs sind. Wie schwierig hier Entscheidungen (nicht nur für Maschinen) werden könnten, zeigt beispielsweise das Projekt „Moral Machine“ des MIT Media Lab am Massachusetts Institute of Technology.

 

Zum Autor

stefan-wessDr. Stefan Wess, Diplom Informatiker, ist anerkannter High-Tech-Experte und verfügt über langjährige, internationale Erfahrung im Bereich der Unternehmensführung. Er ist über viele Jahre Autor und Herausgeber von mehreren Büchern und zahlreicher Fachartikel zum Thema „Künstliche Intelligenz“. Dr. Wess ist Mitglied im Aufsichtsrat des Deutschen Forschungszentrums für Künstliche Intelligenz, im Aufsichtsrat der RS Media AG, Singen und Kurator der Fraunhofer Gesellschaft. In seiner Freizeit ist er Motorradfahrer aus Leidenschaft und immer noch ein Computer Nerd…


Autorenbild: Copyright Dr. Stefan Wess

2 thoughts on “Big Data und KI: Brauchen wir zukünftig eine Maschinenethik?

Schreibe einen Kommentar