Der Hype um künstliche Intelligenz – und was das menschliche Gehirn besonders macht

Künstliche Intelligenz (KI) ist von verschiedensten Unternehmen und auch Staaten überall auf der Welt als Schlüsseltechnologie identifiziert worden. Die Mitarbeiter der auf KI fokussierten Unternehmung OpenAI erdachten die Software GPT 3, was für „Generative Pretrained Transformer 3“ steht. Für entsprechendes Kapital sorgten unter anderem Unternehmer wie Elon Musk und der Tech-Gigant Microsoft.

Hinter der Software, die in den letzten Jahren für zahlreiche Schlagzeilen und spektakuläre neue Anwendungen sorgte, steht das sogenannte „Deep Learning“. Das bedeutet, dass Algorithmen dazulernen sollen und es durch 175 Milliarden Parameter auch tatsächlich tun. Auch wenn es dem Programm nicht möglich ist, Fragen so zu verstehen wie ein Mensch, können GPT3 und andere KI-Programme Nutzern zielgenaue Werbung anzeigen oder auch Bücher und Filme empfehlen. Das ist bei Amazon ebenso zu beobachten wie beim Streaming-Dienst Netflix; die Technologie wurde kommerzialisiert.

Auch bei Spielen setzt sich der Hype um KI fort. Immer mehr Videospiele, Schach oder Poker beherrschen Computer mittlerweile besser als Menschen. Ein Ende der schon jetzt existierenden Anwendung von Lern-Algorithmen ist nach Meinung von Kai-Fu Lee, einem ehemaligen Google-Manager, aber noch lange nicht erreicht. Die Tageszeitung „Frankfurter Allgemeine Zeitung“ (FAZ) schreibt,  dass Lee davon ausgehe, dass jetzt die „Zeit der Implementierung“ angebrochen sei und „bestehende Prozesse quasi mittels maschinellem Lernen ertüchtigt werden“.

Doch das menschliche Gehirn ist vielschichtig – ein Computer kann, herausragende KI-Programmierung hin oder her, nicht bei allem mithalten, was das menschliche Gehirn vermag. Sehr deutlich wird das, wenn man zum Vergleich das Lernen von kleinen Kindern betrachtet. Während KI dreißigtausend, dreihunderttausend oder noch mehr Bilder von einem Elefanten gezeigt bekommen muss, bis das Programm „Elefant“ abgespeichert hat und diesen erkennt, müssen Eltern ihren Kindern vielleicht drei zeigen. Das menschliche Gehirn ist zum „One-Shot-Learning“ fähig – es lernt anhand von nur wenigen Daten oder nur einem einzigen Beispiel.

Ein Mensch muss außerdem nicht zwangsläufig beobachten oder eigene Erfahrungen auswerten, um zu lernen. „Ein Großteil unseres Wissens eignen wir uns an durch einmal hergeleitete und formalisierte Regeln oder in Gesetzen codierte Verhaltensnormen, die uns andere beibringen“, schreibt die FAZ. Wichtig werden wird daher wohl zunehmend ein hybrider Ansatz: KI, die durch enorme Datenmengen und Rechenleistung lernt und der Mensch, der dem Ganzen mehr Strukturen gibt.

Unsere Rednerinnen und Redner bieten Ihnen auf Ihren Veranstaltungen spannende Einblicke in künstliche Intelligenz und andere Themen der Zukunft.

Chris Boos

Mitglied im Digitalrat der Bundesregierung

Jay Tuck

US-Sicherheitsexperte, Erfolgsautor, Experte für Künstliche Intelligenz

Daniel Domscheit-Berg

Ehemaliger Sprecher von WikiLeaks & Internetaktivist

Ranga Yogeshwar

Wissenschaftsjournalist und Moderator

 

Quelle: FAZ