banner
Nachrichtenzentrum
Durch die ISO-Zertifizierung heben wir uns von unseren Mitbewerbern ab.

KI wird mit GPT intelligenter, sicherer und visueller

Jul 15, 2023

Wenn Sie ChatGPT Plus abonnieren, können Sie es jetzt ausprobieren.

OpenAI-CEO Sam Altman spricht im Februar.

Die angesagteste KI-Technologie-Stiftung hat am Dienstag ein großes Upgrade erhalten: Die GPT-4-Version von OpenAI ist jetzt in der Premium-Version des ChatGPT-Chatbots verfügbar.

GPT-4 kann viel längere Textfolgen generieren und reagieren, wenn Leute ihm Bilder füttern, und es ist so konzipiert, dass es die Fallstricke der künstlichen Intelligenz besser vermeidet, die im früheren GPT-3.5 sichtbar waren, sagte OpenAI am Dienstag. Laut dem KI-Forschungsunternehmen liegt GPT-4 beispielsweise bei Anwaltsprüfungen, die Anwälte bestehen müssen, um als Anwalt tätig zu werden, in den oberen 10 % der Ergebnisse, verglichen mit den unteren 10 % bei GPT-3.5.

GPT steht für Generative Pretrained Transformer und bezieht sich auf die Tatsache, dass es selbst Text generieren kann – jetzt bis zu 25.000 Wörter mit GPT-4 – und dass es eine KI-Technologie namens Transformers verwendet, die Google entwickelt hat. Dabei handelt es sich um eine Art von KI, die als großes Sprachmodell (LLM) bezeichnet wird und anhand riesiger Datenmengen aus dem Internet trainiert wird und mathematisch lernt, Muster zu erkennen und Stile zu reproduzieren. Menschliche Aufseher bewerten Ergebnisse, um GPT in die richtige Richtung zu lenken, und GPT-4 hat mehr von diesem Feedback.

OpenAI macht GPT seit Jahren für Entwickler verfügbar, aber ChatGPT, das im November auf den Markt kam, bot eine einfache Schnittstelle, die auch normale Leute nutzen können. Das löste eine Explosion des Interesses, des Experimentierens und der Besorgnis über die Nachteile der Technologie aus. Es kann alles, von der Generierung von Programmiercode und der Beantwortung von Prüfungsfragen bis hin zum Verfassen von Gedichten und der Bereitstellung grundlegender Fakten. Es ist bemerkenswert, wenn auch nicht immer zuverlässig.

ChatGPT ist kostenlos, kann jedoch bei hoher Nachfrage ins Stocken geraten. Im Januar begann OpenAI, ChatGPT Plus für 20 US-Dollar pro Monat mit garantierter Verfügbarkeit und jetzt auch der GPT-4-Basis anzubieten. Entwickler können sich auf einer Warteliste eintragen, um ihren eigenen Zugang zu GPT-4 zu erhalten.

„In einem lockeren Gespräch kann der Unterschied zwischen GPT-3.5 und GPT-4 subtil sein. Der Unterschied kommt zum Vorschein, wenn die Komplexität der Aufgabe einen ausreichenden Schwellenwert erreicht“, sagte OpenAI. „GPT-4 ist zuverlässiger, kreativer und in der Lage, viel differenziertere Anweisungen zu verarbeiten als GPT-3.5.“

Ein weiterer großer Fortschritt von GPT-4 ist die Möglichkeit, Eingabedaten zu akzeptieren, die Text und Fotos enthalten. Im Beispiel von OpenAI wird der Chatbot gebeten, einen Witz zu erklären, der ein sperriges, jahrzehntealtes Computerkabel zeigt, das an den winzigen Lightning-Anschluss eines modernen iPhones angeschlossen ist. Diese Funktion hilft GPT auch dabei, Tests durchzuführen, die nicht nur in Textform erfolgen. Sie ist jedoch in ChatGPT Plus noch nicht verfügbar.

Ein weiterer Grund ist eine bessere Leistung, die KI-Probleme wie Halluzinationen vermeidet – falsch erfundene Antworten, die oft mit ebenso viel scheinbarer Autorität angeboten werden wie Antworten, die die KI richtig macht. GPT-4 ist auch besser darin, Versuche zu vereiteln, es dazu zu bringen, etwas Falsches zu sagen: „GPT-4 schneidet bei unseren internen kontradiktorischen Faktizitätsbewertungen um 40 % besser ab als unser neuestes GPT-3.5“, sagte OpenAI.

GPT-4 fügt außerdem neue „Lenkbarkeits“-Optionen hinzu. Benutzer großer Sprachmodelle müssen sich heutzutage oft mit aufwändiger „Prompt-Entwicklung“ befassen und lernen, wie sie bestimmte Hinweise in ihre Eingabeaufforderungen einbetten, um die richtigen Antworten zu erhalten. GPT-4 fügt eine Systembefehlsoption hinzu, mit der Benutzer einen bestimmten Ton oder Stil festlegen können, beispielsweise Programmiercode oder einen sokratischen Tutor: „Sie sind ein Tutor, der immer im sokratischen Stil antwortet. Sie geben dem Schüler nie die Antwort, aber immer.“ Versuchen Sie, genau die richtige Frage zu stellen, damit sie lernen, selbstständig zu denken.“

OpenAI erkennt erhebliche Mängel an, die bei GPT-4 weiterhin bestehen, wirbt jedoch auch für Fortschritte bei deren Vermeidung.

„Es kann manchmal zu einfachen Denkfehlern kommen ... oder zu leichtgläubig sein, wenn es darum geht, offensichtliche falsche Aussagen eines Benutzers zu akzeptieren. Und manchmal kann es bei schwierigen Problemen auf die gleiche Weise scheitern, wie es Menschen tun, wie zum Beispiel beim Einführen von Sicherheitslücken in den von ihm erzeugten Code“, so OpenAI sagte. Darüber hinaus „kann GPT-4 mit seinen Vorhersagen auch getrost falsch liegen, wenn es nicht darauf achtet, die Arbeit noch einmal zu überprüfen, wenn die Wahrscheinlichkeit besteht, dass es einen Fehler macht.“

Große Sprachmodelle können beeindruckende Ergebnisse liefern, da sie scheinbar große Mengen an Themen verstehen und sich in einer menschlich klingenden, wenn auch etwas gestelzten Sprache unterhalten. Grundsätzlich wissen LLM-KIs jedoch nichts wirklich. Sie sind lediglich in der Lage, Wörter auf statistisch sehr raffinierte Weise aneinanderzureihen.

Dieser statistische, aber grundsätzlich etwas hohle Wissensansatz veranlasste Forscher, darunter die ehemaligen Google-KI-Forscher Emily Bender und Timnit Gebru, vor den „Gefahren stochastischer Papageien“ zu warnen, die mit großen Sprachmodellen einhergehen. Sprachmodell-KIs neigen dazu, in Trainingsdaten vorhandene Vorurteile, Stereotypen und negative Stimmungen zu kodieren, und Forscher und andere Personen, die diese Modelle verwenden, neigen dazu, „Leistungssteigerungen mit tatsächlichem Verständnis natürlicher Sprache zu verwechseln“.

OpenAI-Chef Sam Altman räumt Probleme ein, ist aber insgesamt mit den Fortschritten bei GPT-4 zufrieden. „Es ist kreativer als frühere Modelle, es halluziniert deutlich weniger und es ist weniger voreingenommen. Es kann eine Anwaltsprüfung bestehen und bei mehreren AP-Prüfungen mit 5 Punkten abschneiden“, twitterte Altman am Dienstag.

Eine Sorge im Zusammenhang mit KI besteht darin, dass Studierende damit schummeln, beispielsweise bei der Beantwortung von Aufsatzfragen. Es ist ein echtes Risiko, obwohl einige Pädagogen LLMs aktiv als Werkzeug nutzen, wie Suchmaschinen und Wikipedia. Unternehmen zur Plagiatserkennung passen sich der KI an, indem sie ihre eigenen Erkennungsmodelle trainieren. Ein solches Unternehmen, Crossplag, sagte am Mittwoch, dass nach dem Testen von etwa 50 von GPT-4 generierten Dokumenten „unsere Genauigkeitsrate über 98,5 % lag.“

OpenAI erhielt einen großen Aufschwung, als Microsoft im Februar bekannt gab, dass es GPT-Technologie in seiner Bing-Suchmaschine verwendet, einschließlich Chat-Funktionen ähnlich wie ChatGPT. Am Dienstag gab Microsoft bekannt, dass es GPT-4 für die Bing-Arbeit verwendet. Zusammen stellen OpenAI und Microsoft eine große Suchbedrohung für Google dar, aber Google verfügt auch über eine eigene große Sprachmodelltechnologie, darunter einen Chatbot namens Bard, den Google privat testet.

Ebenfalls am Dienstag kündigte Google an, mit begrenzten Tests seiner eigenen KI-Technologie zu beginnen, um das Schreiben von Gmail-E-Mails und Google Docs-Textverarbeitungsdokumenten zu fördern. „Mit Ihrem kollaborativen KI-Partner können Sie weiter verfeinern und bearbeiten und erhalten bei Bedarf weitere Vorschläge“, sagte Google.

Diese Formulierung spiegelt Microsofts „Co-Pilot“-Positionierung der KI-Technologie wider. Angesichts der Probleme der Technologie und der Notwendigkeit einer sorgfältigen menschlichen Aufsicht wird häufig davon ausgegangen, dass es sich um eine Hilfe für menschengeführte Arbeit handelt.

Microsoft nutzt die GPT-Technologie sowohl zur Auswertung der Suchanfragen, die Menschen in Bing eingeben, als auch in einigen Fällen, um ausführlichere, konversationelle Antworten anzubieten. Die Ergebnisse können viel informativer sein als die früherer Suchmaschinen, aber die eher gesprächige Oberfläche, die als Option aufgerufen werden kann, weist Probleme auf, die dazu führen, dass sie aus den Fugen geraten.

Um GPT zu trainieren, nutzte OpenAI den Cloud-Computing-Dienst Azure von Microsoft, einschließlich Tausender miteinander verbundener A100-Grafikprozessoren oder GPUs von Nvidia. Azure kann jetzt die neuen H100-Prozessoren von Nvidia verwenden, die über spezielle Schaltkreise zur Beschleunigung von KI-Transformator-Berechnungen verfügen.

Ein weiterer großer Entwickler von Sprachmodellen, Anthropic, stellte am Dienstag ebenfalls einen KI-Chatbot namens Claude vor. Das Unternehmen, das Google als Investor zählt, hat eine Warteliste für Claude eröffnet.

„Claude ist in der Lage, ein breites Spektrum an Konversations- und Textverarbeitungsaufgaben zu bewältigen und dabei ein hohes Maß an Zuverlässigkeit und Vorhersehbarkeit beizubehalten“, sagte Anthropic in einem Blogbeitrag. „Claude kann bei Anwendungsfällen wie Zusammenfassung, Suche, kreativem und kollaborativem Schreiben, Fragen und Antworten, Codierung und mehr helfen.“

Es gehört zu einer wachsenden Gruppe. Der chinesische Such- und Technologieriese Baidu arbeitet an einem Chatbot namens Ernie Bot. Meta, Muttergesellschaft von Facebook und Instagram, hat seine KI-Aktivitäten in einem größeren Team konsolidiert und plant, mehr generative KI in seine Produkte zu integrieren. Sogar Snapchat beteiligt sich mit einem GPT-basierten Chatbot namens My AI am Spiel.

Erwarten Sie in Zukunft weitere Verbesserungen.

„Wir haben das anfängliche Training von GPT-4 schon seit geraumer Zeit durchgeführt, aber es hat lange gedauert und viel Arbeit gekostet, bis wir uns bereit fühlten, es zu veröffentlichen“, twitterte Altman. „Wir hoffen, dass es Ihnen gefällt, und freuen uns über Rückmeldungen zu den Mängeln.“

Anmerkung der Redaktion: CNET verwendet eine KI-Engine, um einige Erklärungen zu persönlichen Finanzen zu erstellen, die von unseren Redakteuren bearbeitet und auf Fakten überprüft werden. Weitere Informationen finden Sie in diesem Beitrag.

Laptops

Desktops und Monitore

Computerzubehör

Fotografie

Tablets und E-Reader

3D-Drucker