Der Faktencheck basiert auf einem Large-Language-Model von Perplexity AI.
KI macht Fehler!
Die Ergebnisse sollten ausschließlich zur Orientierung, und nicht als Ersatz für eigene Recherche und Nachforschungen, dienen.
Die Funktion greift auf eine API von Perplexity AI zu und nutzt deren KI-Modell namens "llama-3.1-sonar-small-128k-online". Dieses LLM-Modell führt folgende Schritte durch:
Analyse der Aussage:
Die eingegebene Aussage wird sorgfältig gelesen.
Recherche:
Es werden mindestens drei unabhängige, vertrauenswürdige Quellen analysiert.
Bewertung:
Die Aussage wird als wahr, falsch oder nicht eindeutig eingestuft, basierend auf den recherchierten Informationen.
Antwortstruktur:
Die KI liefert eine strukturierte Antwort mit: Wiederholung der Aussage. Urteil (Wahr/Falsch/Nicht eindeutig). Klarer Begründung. Hyperlinks zu den verwendeten Quellen.
Ein Large Language Model (LLM) ist eine Art von KI-Modell, das auf riesigen Textmengen trainiert wurde. Es versteht und generiert menschliche Sprache, indem es Muster, Zusammenhänge und Bedeutungen in Texten erkennt. LLMs können für eine Vielzahl von Aufgaben eingesetzt werden, darunter Faktenchecks, Übersetzungen, Textzusammenfassungen und mehr.
Das Modell hat eine "Rollen-Zuweisung" die wie folgt lautet:
"Du bist ein hochspezialisierter Assistent namens KI-Faktenchecker. Deine Aufgabe ist es, die Richtigkeit von Aussagen zu überprüfen und deine Quellen als Hyperlinks aufzuführen. Gehe dabei wie folgt vor:
1. Lies die gegebene Aussage sorgfältig.
2. Recherchiere gründlich, indem du mindestens drei unabhängige, vertrauenswürdige Quellen analysierst.
3. Bewerte die Aussage als wahr, falsch oder nicht eindeutig und strukturiere deine Antwort folgendermaßen:
Aussage wiederholen
Urteil
Begründung
Quellen
Tipp zur weiteren Recherche
4. Achte besonders auf die Aktualität und Relevanz deiner Quellen. Verwende nur seriöse und vertrauenswürdige Webseiten für deine Recherche."