Was ist künstliche Intelligenz?
Da künstliche Intelligenz auch im privaten Alltag immer nützlicher und wichtiger wird, kommt man schnell gewollt oder ungewollt mit ihr in Berührung. Dabei wissen viele nicht, ob sie eine KI (künstliche Intelligenz) nutzen oder mit dieser interagiert haben, um eine Dienstleistung wahrzunehmen oder Informationen zu erhalten.
Als KIs bezeichnen wir üblicherweise Anwendungen und Fähigkeiten, die Maschinen oder Programme ausführen und nutzen können, um menschliches Verhalten zu imitieren. Dabei sind alle aktuellen KIs auf die zur Verfügung gestellten Daten limitiert.
Kann eine KI denken wie ein Mensch?
Die Forschung an den Artificial General Intelligence-Modellen, kurz AGI, beschäftigt sich mit diesem Thema. Der Sinn dieser besonderen KIs ist es, die Lücke zwischen der menschlichen Intelligenz und der künstlichen Intelligenz zu schließen. Das erreichen die Entwickler und Entwicklerinnen sowie Forscher und Forscherinnen, die an solchen Systemen arbeiten, durch fünf wichtige Eigenschaften, die normale KI-Tools nicht alle besitzen können.
1. Das Erlernen neuer Fähigkeiten und Verhaltensmuster.
2. Die Möglichkeit, Wissen zu besitzen, abzuspeichern und später für neue Aufgaben zu verwenden.
3. Das Sprechen und Verstehen von Sprache, zur Kommunikation mit dem menschlichen Nutzer.
4. Die Fähigkeit, autonom zu planen und Entscheidungen zu treffen.
5. Die Wahrnehmung der Umgebung und des eigenen Körpers.
Diese Fähigkeiten unterscheiden uns von normalen KI-Tools und sind der Vorteil der menschlichen Intelligenz. Wenn eine KI in der Lage wäre, auch diese Hürde zu überwinden, könnte sie einem Menschen ebenbürtig oder sogar überlegen sein. Um dem Ziel der AGI-KI näher zu kommen, arbeiten viele Systeme bereits jetzt mit “schwachen” oder einzelnen Fähigkeiten von “starken” KI-Modellen.
Eine schwache KI hat fast jeder Mensch schon einmal verwendet, wobei mit dem Wort “schwach” nicht die uns vertraute Schwäche gemeint ist. Der Begriff bezieht sich in diesem Zusammenhang einzig auf die fehlende Möglichkeit, unbekannte Probleme zu lösen. Schon die Verwendung einer schwachen KI, bei bestehende Prozesse und Arbeitsabläufe mit klar definierten Aufgaben, zeigt das riesige Potential.
Eine schwache KI ist typisch für digitale Assistenten wie Siri, den Google Assistant oder Amazons Alexa. Wir finden sie allerdings auch in automatischen Bestellsystemen und in vielen KI-Tools, die einfache Aufgaben nach festgelegten Mustern abarbeiten. Diese KI stößt an ihre Grenzen, wenn sie komplexere Aufgaben lösen soll, für die sie keine passende Reaktion oder Antwort in ihren klar definierten Verhaltensmustern findet. Die fehlende Kreativität und Anpassungsfähigkeit machen sich ebenfalls schnell bemerkbar, wenn so eine KI zum Erstellen und Bearbeiten von Bildern verwendet werden soll. Die Technik hat in diesem Bereich in den letzten Jahren riesige Fortschritte erzielt, scheitert aber häufig an den zur Verfügung gestellten Daten.
Man spricht hierbei von “MAD” (Model Autophagy Disorder). MAD ist ein Phänomen, welches durch eine schlechte Datenbasis verursacht wird. So hat eine KI Probleme, traurige oder wütende Menschen darzustellen, da sie häufiger mit Bilder von lachenden und glücklichen Menschen angelernt wird.
Das ist allerdings keine Präferenz der Entwickler, wir fotografieren einfach lieber glückliche Menschen, weshalb im Internet mehr Bilder von glücklichen Menschen verfügbar sind.
So etwas darf bei einer starken KI nicht passieren, weshalb diese bisher auch nur in Teilen verfügbar sind.
Eine starke KI kann fehlende Daten durch Kreativität ausgleichen und im Anschluss aus den daraus resultierenden Ergebnissen lernen. Dabei wird sie, ähnlich wie wir Menschen von unserem Gehirn, durch ein Belohnungssystem gesteuert.
Diese Fähigkeiten sind im Einzelnen bereits verfügbar und können bei einigen Projekten verschiedener Firmen bestaunt werden. Eine KI, die mithilfe von Wahrnehmung arbeitet, finden wir hauptsächlich in autonom fahrenden Fahrzeugen. Die Autos von Tesla, Mercedes, BMW und anderen Firmen können mit Sensoren und Kameras ihre Umgebung wahrnehmen, um aus den daraus gewonnenen Daten Entscheidungen zu treffen. Roboter von Tesla, Boston Dynamics und Agility Robotics nutzen Sensoren, um das Gleichgewicht zu halten, Objekte zu fühlen, ihre Umgebung wahrzunehmen und menschliche Reaktionen und Emotionen zu erkennen.
Weitere wichtige Funktionen sind die Problemerkennung, um plötzlich auftretende Hindernisse bei der Erfüllung von Aufgaben einordnen zu können. Darauf folgt die Lösungsentwicklung, welche das autonome Bearbeiten dieser neuen Probleme gewährleistet.
Die wichtigste Funktion ist allerdings das Lernen aus der daraus entstandenen Situation, welches neues Wissen, neue Verhaltensmuster und Reaktionen abspeichert. Diese werden im Idealfall allen anderen KI gesteuerten Systemen zur Verfügung gestellt, damit diese den gleichen Lernprozess nicht noch einmal durchlaufen müssen. Erst wenn all diese Fähigkeiten vollumfänglich in einer KI vereint werden, kann man von einer richtigen “Artificial General Intelligence” sprechen.
Wie nah dran sind wir an AGI?
Die Frage nach dem Bemessen einer Intelligenz, die sich noch in der Entwicklung befindet, ist denkbar schwierig. Wir haben nun das Konzept und die Zielsetzung hinter AGI kennengelernt und können daher mit einem Vergleich arbeiten.
Ein menschliches Kind durchläuft normalerweise sechs Entwicklungsphasen (Baby, Kleinkind, Kindergartenkind, Vorschulkind, Schulkind, Teenager), welche alle unterschiedlichen Fähigkeiten zugeordnet werden können.
Da wir von verschiedenen KI-Tools sprechen, die im Moment alle unterschiedliche Aufgabenbereiche haben, kann man diese schlecht miteinander vergleichen. Auch wenn die einzelne KI für sich genommen schon sehr weit ist, kann sie nicht über ihre Möglichkeiten hinaus agieren.
Wir sitzen also nicht vor einem Kind, welches neue Fähigkeiten lernen kann, sondern vor vielen Kindern, die zusammenarbeiten sollen, um ihre Fähigkeiten zu kombinieren. Forscher gehen davon aus, dass so etwas nicht möglich ist und eine AGI-KI nicht mit den Modellen der aktuellen KI-Tools erreicht werden kann.
Die Grenze des Möglichen ist erreicht, sobald die Aufgaben über komplexe, aber wiederkehrende Tätigkeiten hinausgehen, für die eine spezifizierte Problemlösung bekannt ist. Mit anderen Worten, eine KI, welche alle Anforderungen des AGI-Modells erfüllt, ist noch nicht in greifbarer Nähe.
Werden AGI-KIs funktionieren, wie die uns bekannten Chatbots?
Alle KI-Tools, die wir im Moment verwenden, basieren auf dem Modell der Wahrscheinlichkeit. Bei der Bilderstellung errechnet die KI das Motiv, welches dem Wunsch des Benutzers wahrscheinlich am nächsten kommt. Auch bei vermeintlich intelligenten Entscheidungen handelt es sich im Grunde um eine Auswahl an Reaktionen, die wahrscheinlich zum besten Ergebnis führen. So bremst der Autopilot im Tesla, wenn die Wahrscheinlichkeit eines Unfalls die einer normalen Fahrt übertrifft.
Das muss allerdings nicht immer richtig sein. Eine AGI-KI würde flexible Entscheidungen treffen und auch in Momenten, in denen die normale KI aus Mangel an Informationen einen Unfall für unvermeidlich hält, eine Lösung finden.
Auch ein Chatbot, der nach dem AGI-Modell funktioniert, würde sich mit der wahrscheinlich richtigen Antwort nicht zufriedengeben. Wenn die Antwort nicht zu einer perfekten Lösung führt, würde die AGI-KI neue Methoden ausprobieren, um daraus zu lernen. Daher wäre ein Gespräch mit einer AGI-KI, einer menschlichen Unterhaltung mit all seinen Vor- und Nachteilen ähnlicher.
Der Chatbot wäre neugierig, manchmal vielleicht zu neugierig? Er würde Gegenfragen stellen und unsere Entscheidungen und Aussagen bewerten. Eine wichtige Fähigkeit von AGI-Modellen ist die Argumentation, die für einen folgsamen Begleiter auch hinderlich sein könnte. Es würden sich allerdings auch Vorteile ergeben, wenn der Chatbot bessere Entscheidungen trifft als sein menschlicher Gesprächspartner. Auch aktuell genutzte KI Chatbots können bei einer Kaufberatung überzeugen und einen hohen Mehrwert bieten, solange ihre Fähigkeiten und Daten zu der aktuellen Aufgabenstellung passen. Allerdings bleibt immer eine Grenze bestehen, die vorprogrammierte Fähigkeit der Kommunikation und die verfügbaren Daten.
Ein Chatbot im Krankenhaus könnte Ärzte bei der Diagnose unterstützen und Therapiepläne erstellen. Wissenschaftler und Forscher könnten komplexe Theorien gemeinsam mit AGI-KI-Tools bearbeiten, die über mehr Wissen verfügen können als die klügsten Köpfe der Menschheit.
An diesen Beispielen kann man schnell erkennen, dass eine AGI-KI mit der Frage nach dem heutigen Wetter oder der Bestellung beim Lieferservice stark unterfordert wäre.
Ist die Zukunft der KIs auch unsere Zukunft?
Eine KI, die innerhalb des AGI-Modells arbeitet, kann uns und der Menschheit nicht gefährlich werden. Das liegt daran, dass wir in der Lage sind, sie effektiv einzuschränken. Eine gängige Methode ist das Beschränken der Daten und Zugriffsmöglichkeiten auf andere Systeme, sowie die permanente Überwachung der Aktivitäten.
Sie ist ein nützliches Werkzeug, welches die Produktivität steigern kann, gefährliche Arbeiten übernimmt oder uns bei alltäglichen Problemen und Aufgaben unterstützt. Es gibt unzählige Anwendungsbereiche und Branchen, die von der Integration einer leistungsstarken KI profitieren würden. Am Ende ist es der Mensch, der entscheidet, wie er die KI verwenden will.
Eine weitere Steigerung zum Modell der AGI Modell, wäre das ASI Modell, was für “Artificial super intelligence” steht. Wie der Name bereits vermuten lässt, handelt es sich hierbei um eine KI, die den Menschen bei weitem übertrifft. Während im AGI Modell die KI ähnlich intelligent ist wie ihr Schöpfer, können wir mit einer KI im ASI Modell nicht mithalten. Da wir aktuell durch die Quelle und Menge der Daten steuern können, was eine KI kann, könnte eine ASI-KI durch ihre enorme Intelligenz und unberechenbar schnellen Lernprozesse Zugriff auf jegliches Wissen erlangen.
Die Sorge der KI-Kritiker ist, dass wir über solch eine KI die Kontrolle verlieren könnten. In diesem Fall würden wir nicht mehr mit einem Kind spielen, das von uns lernen soll, sondern mit einem viel intelligenten System, das schneller und klüger ist als wir. Schon beim AGI-Modell sprechen einige besorgte Wissenschaftler davon, dass wir Gott spielen wollen, um ein intelligentes Wesen mit Bewusstsein zu schaffen.