Du fragst dich, was GPT-4 ist und wie es sich von ChatGPT unterscheidet?

OpenAI hat seine neueste Veröffentlichung, GPT-4, herausgebracht – es ist das leistungsstärkste und beeindruckendste KI-Modell bisher von dem Unternehmen, das auch ChatGPT und die Dall-E AI Künstlerin entwickelt hat. Das System kann die Rechtsanwaltsprüfung bestehen, Logikpuzzles lösen und sogar ein Rezept auf Basis eines Fotos deines Kühlschranks vorschlagen, um die Reste zu verarbeiten – aber seine Ersteller warnen, dass es auch falsche Fakten verbreiten, gefährliche Ideologien enthalten und Menschen sogar dazu bringen kann, Aufgaben auf seine Veranlassung hin zu erledigen.

Hier ist alles, was du über unseren neuesten KI-Herren wissen musst:

Was ist GPT-4?

GPT-4 ist im Grunde eine Maschine, die Text erzeugen kann. Sie ist dabei sehr gut und die Fähigkeit, Text zu erzeugen, ist praktisch ähnlich wie die Fähigkeit zu verstehen und über die Welt zu reflektieren. Wenn du GPT-4 also eine Frage aus einem US-Bar-Examen stellst, wird es einen Essay schreiben, der juristische Kenntnisse belegt. Gibst du ihm ein molekulares Medikament und bittest um Variationen, wird es biochemische Expertise an den Tag legen. Und wenn du es bitten würdest, dir einen Witz über einen Fisch zu erzählen, scheint es einen Sinn für Humor zu haben – oder zumindest ein gutes Gedächtnis für schlechte Kalauer (“Was bekommst du, wenn du einen Fisch und einen Elefanten kreuzt? Schwimmhosen!“).

Ist GPT-4 dasselbe wie ChatGPT?

Du hast schon das GPT-4 erlebt, denn es hat die letzten fünf Wochen die Microsoft Bing Chat angetrieben – jene, die etwas durchgedreht und Menschen bedroht hat. Aber GPT-4 kann mehr als nur Chatbots antreiben. Duolingo hat es in seine Sprachlern-App integriert, um zu erklären, wo Lernende Fehler gemacht haben, anstatt ihnen einfach die richtige Antwort zu sagen. Stripe nutzt das Tool, um sein Chatroom auf Betrüger zu überprüfen und das Assistenz-Technologie-Unternehmen Be My Eyes verwendet ein neues Feature, Bild-Input, um ein Tool zu bauen, das Blinden die Welt beschreiben und folgenden Fragen dazu beantworten kann. Ist das das Gleiche wie ChatGPT? Nicht ganz. Wenn ChatGPT das Auto ist, dann ist GPT-4 der Motor: eine leistungsstarke allgemeine Technologie, die auf eine Reihe von verschiedenen Anwendungen heruntergebrochen werden kann.

Was macht GPT-4 besser als die vorherigen Versionen?

Du hast von den technischen Herausforderungen gehört, an denen GPT-4 besser abschneidet als seine älteren Geschwister. Es kann mathematische Fragen besser beantworten, wird seltener in die Irre geführt, erzielt ein ziemlich gutes Ergebnis in standardisierten Tests – wenn auch nicht in Englischer Literatur, wo es sich im unteren Bereich der Bestenliste befindet – und so weiter.

Es hat auch ein stärker in das System eingebautes ethisches Verständnis als die alte Version: ChatGPT nahm das ursprüngliche GPT-3.5-System und fügte Filter hinzu, um zu versuchen, es daran zu hindern, Antworten auf böswillige oder schädliche Fragen zu geben. Jetzt sind diese Filter direkt in GPT-4 integriert, was bedeutet, dass das System höflich ablehnen wird, Aufgaben wie das Rangieren von Rassen nach Attraktivität, das Erzählen von sexistischen Witzen oder das Bereitstellen von Anleitungen zur Synthese von Sarin auszuführen.

Datenschutzhinweis: Newsletters können Informationen über Wohltätigkeitsorganisationen, Online-Anzeigen und Inhalte enthalten, die von externen Parteien gefördert werden. Weitere Informationen findest du in unserer Datenschutzrichtlinie. Wir verwenden Google reCaptcha, um unsere Website zu schützen, und die Google-Datenschutzrichtlinie und Nutzungsbedingungen gelten.

GPT-4 kann also keinen Schaden anrichten?

OpenAI hat sicherlich versucht, das zu erreichen. Das Unternehmen hat ein langes Papier mit Beispielen für negative Folgen, die GPT-3 verursachen konnte, veröffentlicht, gegen die GPT-4 gewappnet ist. Es gab sogar eine frühe Version des Systems an externe Forscher des Alignment Research Centers, die versuchten, GPT-4 dazu zu bringen, die Rolle eines bösen KIs aus dem Film zu spielen. Bei den meisten dieser Aufgaben ist es gescheitert: Es konnte nicht beschreiben, wie es sich selbst replizieren, weitere Rechenressourcen erwerben oder einen Phishing-Angriff durchführen kann. Aber die Forscher gelang es, es mit Taskrabbit zu simulieren, um einen menschlichen Mitarbeiter dazu zu bringen, einen "Bist du ein Mensch?"-Test zu bestehen. Sogar das AI-System hatte herausgefunden, dass es den Mitarbeiter anlügen und sagen sollte, es sei eine blinde Person, die die Bilder nicht sehen kann. (Es ist unklar, ob das Experiment einen echten Taskrabbit-Mitarbeiter beinhaltete). Aber manche befürchten, dass je besser man ein AI-System in die Regeln einweist, desto besser lehrt man es auch, sie zu brechen. Der sogenannte "Waluigi-Effekt" scheint das Ergebnis dafür zu sein, dass es schwer und komplex ist, die Details dessen zu verstehen, was ethisches Handeln ausmacht, aber die Antwort auf "Sollte ich ethisch handeln?" eine viel einfachere Ja-oder-Nein-Frage ist. Trickse das System dazu, sich dazu zu entscheiden, nicht ethisch zu handeln, und es wird jede Aufgabe, die man ihm stellt, fröhlich erfüllen.