SimpleQA – alles, was man wissen muss

Inhaltsverzeichnis

Über diesen Guide

Lügt KI uns an? Mit SimpleQA wirft OpenAI genau diese Frage auf und zeigt: Selbst die besten Sprachmodelle haben oft noch Schwierigkeiten mit der Faktenlage. SimpleQA ist ein neues Tool, das die Antworten von großen Sprachmodellen auf Herz und Nieren prüft. Doch wie genau funktioniert das Ganze und was macht SimpleQA eigentlich aus? Was ist das Ziel und welche Rolle spielt es für die Zukunft der KI? In diesem Beitrag klären wir die 6 wichtigsten Fragen rund um SimpleQA.

1. Was ist SimpleQA?

Jeder kennt es: Man stellt einer KI eine Frage und die Antwort klingt zwar überzeugend, ist aber falsch. Genau hier setzt SimpleQA an, denn es prüft, ob KI-Modelle verlässlich und korrekt antworten können. Das neue Tool von OpenAI kann also als eine Art Test gesehen werden, mit welchem verschiedene Sprachmodelle, wie zum Beispiel ChatGPT oder Gemini, nach Korrektheit ihrer Antworten geprüft werden können. Anders gesagt: SimpleQA ist ein Reality-Check für KI-Modelle.

Die Modelle werden geprüft, indem sie kurze, faktische Fragen beantworten. Diese Fragen sind so gestaltet, dass sie eindeutige Antworten haben, die auch mit der Zeit nicht veralten. Es geht bei SimpleQA also nicht um poetische Metaphern oder kreative Wortspiele. Stattdessen soll der Test feststellen, ob große Sprachmodelle, sogenannte Large Language Models (LLMs), präzise und faktenbasiert antworten können. OpenAI hat SimpleQA als Open Source bereitgestellt, was bedeutet, dass jeder Zugriff auf diesen Test hat. So können kleine und große Entwickler ihre KI überprüfen und nach faktischer Richtigkeit testen. 

Was ist ein Large Language Model? 

Um zu verstehen, was SimpleQA eigentlich testet, ist es hilfreich zu wissen, was hinter der Technik steckt – in diesem Fall dem sogenannten Large Language Model (LLM). Genau diese Modelle nimmt SimpleQA nämlich unter die Lupe:

Ein Large Language Model (LLM) ist ein maschinelles Lernmodell, das darauf trainiert ist, menschliche Sprache zu verstehen, zu verarbeiten und selbst zu erzeugen. Diese Modelle bestehen aus Milliarden von Parametern, die ihnen ermöglichen, komplexe Strukturen und Zusammenhänge in Texten zu erkennen. Durch die riesigen Textmengen im Training lernt ein LLM die vielen Facetten der Sprache, wie Grammatik oder Synonyme.

Heute sind viele dieser Modelle “multimodal“, das heißt, sie verarbeiten nicht nur Texte, sondern auch Formate wie Audio und Video. Daher werden sie auch “Foundation Modelle“ genannt, weil sie nicht nur Sprache, sondern auch eine breite Wissensbasis in verschiedenen Medien bieten.

So funktionieren Large Language Models
Mechanismen hinter LLMs

2. Was ist das Ziel von SimpleQA?

Jetzt, da klar ist, was ein Large Language Models überhaupt ist und wie es funktioniert, bleibt noch die Frage: Wozu wird SimpleQA gebraucht? OpenAI hat darauf eine klare Antwort: 

"Ein ungelöstes Problem in der künstlichen Intelligenz ist, wie man Sprachmodelle so trainieren kann, dass sie faktisch korrekte Antworten liefern. Aktuelle Spitzenmodelle erzeugen manchmal falsche Ausgaben oder Antworten, die nicht durch Belege gestützt sind – ein Problem, das als ‘Halluzinationen‘ bekannt ist. Solche Halluzinationen sind eines der größten Hindernisse für eine breitere Anwendung allgemeiner KI-Formen wie großer Sprachmodelle.“

Doch was sind Halluzinationen eigentlich?

Der Begriff Halluzinationen wird in der Welt der KI genutzt, wenn KI-Modelle falsche oder irreführende Ergebnisse liefern. Diese Fehler können aus verschiedenen Gründen auftreten, zum Beispiel durch unvollständige Trainingsdaten, falsche Annahmen des Modells oder Vorurteile in den Daten, mit denen es trainiert wurde. Halluzinationen können die Verlässlichkeit und das Vertrauen in KI stark beeinträchtigen – und sind ein echtes Hindernis für die breite Anwendung von KI im Alltag.

OpenAI zielt mit SimpleQA also darauf ab, die Genauigkeit und Verlässlichkeit von LLMs zu testen und zu bewerten. Das Tool prüft die Antworten der Modelle ganz genau und zeigt, wie präzise sie wirklich sind. So deckt SimpleQA Stärken auf und zeigt gleichzeitig, wo noch Luft nach oben ist. SimpleQA soll also sicherstellen, dass KI-Modelle verlässlich und präzise antworten – genau das, was sich Nutzer wünschen.

3. Was misst SimpleQA?

SimpleQA misst, wie gut LLMs bei der Beantwortung klarer, faktenbasierter Fragen abschneiden. Dabei geht es nicht nur darum, ob die Antworten stimmen, sondern auch darum, ob das Modell “weiß, was es weiß“ – also, ob es einschätzen kann, wie sicher es sich bei einer Antwort ist. 

Die Fähigkeit des Modells, seine eigene Zuversicht realistisch einzuschätzen, wird Kalibrierung genannt. Die Messung hierfür kann auf zwei Arten passieren: 

  1. Das Modell bewertet selbst, wie sicher es sich bei einer Antwort ist. 
  2. Es wird mehrmals die gleiche Frage gestellt und geschaut, ob das Modell konstant bei seiner Antwort bleibt. 

Hier ist ein Beispiel für die Prüfung der Kalibrierung:

Beispiel für die Prüfung einer Kalibrierung
ChatGPT-4o gibt hier drei unterschiedliche “verifizierte“ Antworten über Muftis jüngere Tochter. Jede Antwort zeigt einen Button für Quellen an, aber alle erzählen eine widersprüchliche Geschichte – was zeigt, wie KI mit ihren Funktionen ein trügerisches Gefühl von Richtigkeit vermitteln kann.
Quelle:
Riafy Stories 

Wie wurden die Fragen von SimpleQA erstellt?

Themengebiete von SimpleQA
Welche Themengebiete die Fragen von SimpleQA umfassen

Die insgesamt 4.326 Fragen von SimpleQA wurden durch einen mehrstufigen und sorgfältigen Prozess erstellt und geprüft. Jede Frage hat eine klare, eindeutige Antwort, die sich auch in Zukunft nicht ändern wird. Dazu wurden die Fragen so ausgewählt, dass sie zeitunabhängig bleiben. Sie basieren zum Beispiel auf allgemeinem Wissen oder spezifischen Zeitrahmen, wie historischen Ereignissen oder TV-Serien.

Um sicherzustellen, dass die Antworten auch wirklich korrekt sind, wird jede Antwort von einem Link untermauert, der die Information belegt. Die Fragen sind bewusst so anspruchsvoll gestaltet, dass selbst fortschrittliche Modelle wie GPT-4 oft danebenliegen. 

Laut OpenAI sorgen hierbei strenge Qualitätskontrollen für Konsistenz und Zuverlässigkeit. Jede Frage durchläuft mehrere unabhängige Prüfungen und zusätzliche Tests, um mögliche Mehrdeutigkeiten oder Fehler auszuschließen. Durch diesen Prozess sichert SimpleQA nicht nur die Qualität der Fragen & Antworten, sondern bietet auch eine solide Grundlage, um die Genauigkeit von KI-Modellen zu bewerten.

4. Wie schneiden die besten KI-Modelle im SimpleQA-Test ab?

Es wurde im vorherigen Abschnitt schon etwas angeteasert: Auch die Besten haben noch ihre Schwierigkeiten, präzise und korrekte Antworten zu liefern. 

Angeführt wird das Feld bei OpenAI von o1-preview mit einer Trefferquote von 42,7%, dicht gefolgt vonmit 38,2%. Kleinere Varianten wie o1-mini und GPT-4o-mini fallen mit etwa 8% jedoch deutlich ab. Auch bei den Modellen von Anthropic gibt es Unterschiede: Claude-3.5-Sonnet erreicht 28,9%, während Claude-3-Opus bei 23,5% liegt.

Interessant ist auch, wie die Claude-Modelle mit Fragen umgehen, bei denen sie sich unsicher sind: Sie lassen diese einfach unbeantwortet. Das könnte in vielen Fällen sogar der sicherere Weg sein. Wenn KI immer mehr Teil unseres Alltags wird – sei es im Gesundheitswesen, in der Bildung oder im Rechtssystem – kann die Fähigkeit zu sagen, “Ich bin mir nicht sicher“, wirklich entscheidend sein.

Tabelle, wie die einzelnen Modelle abgeschnitten haben
So haben die Modelle abgeschnitten

Macht Größe also den Unterschied?

Es scheint zumindest, dass größere Modelle tendenziell bessere Ergebnisse liefern, was darauf hindeutet, dass die Größe tatsächlich einen Einfluss auf die Genauigkeit hat. Trotzdem schaffen es selbst die besten Modelle nicht, die 50% Marke zu knacken und mehr als die Hälfte der Fragen werden falsch beantworten – die Fehlerquote bleibt also hoch. Es wird noch einmal klar: Wenn es um verlässliche Informationen geht, sollten Nutzer von KI-Modellen nach wie vor gründlich überprüfen.

5. Welche Bedeutung hat SimpleQA für die KI-Entwicklung?

SimpleQA ist ein wichtiges Werkzeug, das dabei hilft, KI-Modelle zuverlässiger und vertrauenswürdiger zu machen. Die Entscheidung von OpenAI, SimpleQA als Open Source bereitzustellen, macht das Ganze dann noch spannender. Denn das bedeutet, dass Forscher und Entwickler weltweit Zugriff auf SimpleQA haben und ihre Modelle testen und weiter verbessern können.

Ein wertvoller Aspekt von SimpleQA ist außerdem die Erkenntnis, dass möglicherweise der Blick auf Intelligenz bei KI neu überdacht werden sollte. Vielleicht ist die “intelligenteste“ KI nicht die, die auf alles eine Antwort hat, sondern die, die weiß, wann sie doppelt prüfen oder nicht antworten sollte, so wie Claude. 

6. Gibt es Grenzen von SimpleQA? 

Ganz klar: Ja. SimpleQA ist zwar ein super Tool, um die Faktentreue von KI zu prüfen, hat aber auch seine Grenzen. Wie schon erwähnt, konzentriert sich SimpleQA hauptsächlich auf kurze, faktische Fragen mit eindeutigen Antworten. Das heißt, komplexe Aufgaben wie lange Texte zu schreiben, mehrstufige Gespräche zu führen oder widersprüchliche Infos zu verarbeiten – dafür ist SimpleQA nicht wirklich gemacht.

Ein weiterer Punkt: Die Fragen wurden so ausgewählt, dass sie besonders für Modelle wie GPT-4 herausfordernd sind. Das könnte die Ergebnisse verfälschen, da der Test nicht unbedingt für alle KI-Modelle repräsentativ ist. Und auch die Tatsache, dass ein KI-Modell (wie ChatGPT) andere Modelle bewertet, kann problematisch sein. Warum? Weil das bewertende Modell selbst Teil des Tests ist – was zu einer “Kreis-Bewertung" führt und es schwierig macht, eine wirklich unabhängige und objektive Meinung zu bekommen.

Fazit: Der Reality-Check für LLMs

SimpleQA ist ein spannendes neues Tool, das einen Blick hinter die Kulissen von LLMs ermöglicht. Durch den Open-Source-Zugang fördert es den Austausch und bringt Nutzer näher an KI-Systeme, die weniger zu Halluzinationen neigen. Doch SimpleQA zeigt auch, dass der Weg zu hundertprozentiger Faktentreue noch lang ist. Während generative KI-Modelle wie ChatGPT oft überzeugen, schleichen sich doch gelegentlich ungenaue Informationen ein. 

Dabei sind gerade präzise und aktuelle Informationen entscheidend – besonders für Unternehmen, die in ihrer Kundenkommunikation auf absolute Zuverlässigkeit angewiesen sind. Doch nicht nur wegen möglichen Halluzinationen ist ChatGPT ungeeignet für die Kundenkommunikation: Mehr Gründe erfahren Sie auf unserer Website und zwar im direkten Vergleich zu moinAI.

Warum ChatGPT für die Kundenkommunikation ungeeigent & moinAI die bessere Wahl ist.

Zufriedenere Kunden durch schnellere Antworten.

Überzeugen Sie sich selbst und erstellen Sie Ihren eigenen Chatbot. Kostenlos und unverbindlich.