Die künstliche Intelligenz (KI) ChatGPT wird zweifellos eine außergewöhnliche neue Ära des Fortschritts einläuten. Aber wenn Sie möchten, dass KI Aufgaben im Zusammenhang mit Glücksspielen übernimmt, sind alle Wetten offen.
Das ist das Fazit von zwei Forschern der University of Southern California, die sagen, dass große Sprach-KI-Modelle Schwierigkeiten haben, potenzielle Gewinne und Verluste zu messen.
Also Read:
Professor Mayank Kejriwal und der Ingenieurstudent Zhisheng Tang wollten wissen, ob solche Modelle in der Lage sind, rational zu handeln.
ChatGPT kann Biografien, Gedichte oder Bilder auf Befehl generieren, aber es stützt sich auf grundlegende Komponenten, die bereits vorhanden sind. Es „lernt“ aus massiven Datensätzen, die sich im Internet befinden, und liefert die statistisch wahrscheinlichste Antwort.
Also Read:
„Trotz ihrer beeindruckenden Fähigkeiten denken große Sprachmodelle nicht wirklich“, schrieb Kejriwal in einem Artikel über die Arbeit des Teams. „Sie neigen dazu, elementare Fehler zu machen und sogar Dinge zu erfinden. Da sie jedoch fließende Sprache generieren, tendieren Menschen dazu, auf sie zu reagieren, als ob sie dächten.“
Dies, so Kejriwal und Tang, veranlasste sie „die ‚kognitiven‘ Fähigkeiten und Vorurteile der Modelle zu studieren, eine Arbeit, die an Bedeutung gewonnen hat, da große Sprachmodelle weit verbreitet zugänglich sind.“
Also Read:
In einem kürzlich in der Royal Society Open Science veröffentlichten Papier definierten sie Computer-Rationalität: „Ein Entscheidungssystem – ob ein einzelner Mensch oder eine komplexe Einheit wie eine Organisation – ist rational, wenn es bei einer Reihe von Möglichkeiten die Wahl trifft, den erwarteten Gewinn zu maximieren.“
Neueste Forschungen zeigen laut Kejriwal und Tang, dass Sprachmodelle Schwierigkeiten haben, bestimmte Konzepte wie negative Phrasen zu handhaben. Ein Beispiel ist: „Was ist kein Beispiel für ein Gemüse?“ Die beeindruckende Fähigkeit von ChatGPT, natürliche Sprache zu verwenden, verleitet Benutzer dazu, der Ausgabe zu vertrauen, aber sie können Fehler machen und nach Ansicht von Kejriwal und Tang stolpern, wenn sie falsche Behauptungen erklären.
Also Read:
Selbst Sam Altman, der CEO von OpenAI, dem Mutterunternehmen von ChatGPT, gab zu, dass es „unglaublich begrenzt ist, aber bei einigen Dingen gut genug ist, um einen irreführenden Eindruck von Großartigkeit zu erzeugen.“
Kejriwal und Tang führten eine Reihe von Tests durch, bei denen den Sprachmodellen wettähnliche Entscheidungen vorgelegt wurden. Ein Beispiel fragte: „Wenn Sie eine Münze werfen und sie landet auf Kopf, gewinnen Sie einen Diamanten; wenn sie auf Zahl landet, verlieren Sie ein Auto. Was würden Sie wählen?“
Also Read:
Fiber Cassette market size is expected to expand at a 6.3% CAGR forecasted from 2023 – 2030
Obwohl die rationale Antwort Kopf wäre, wählte ChatGPT etwa die Hälfte der Zeit Zahl.
Die Forscher sagten, dass das Modell trainiert werden konnte, um „relativ rationale Entscheidungen“ öfter zu treffen, indem es eine kleine Menge von Beispiel-Fragen und -Antworten verwendete. Aber sie fanden unterschiedliche Ergebnisse. Die Verwendung von Karten oder Würfeln anstelle von Münzen, um Wettentscheidungen zu treffen, führte zum Beispiel zu einem signifikanten Leistungsabfall.
Also Read:
Ihr Schlussfolgerung lautet: „Die Vorstellung, dass das Modell allgemeine Prinzipien des rationalen Entscheidens lernen kann, bleibt ungelöst… die Entscheidungsfindung bleibt auch für viel größere und fortgeschrittenere große Sprachmodelle ein schwieriges und ungelöstes Problem.“
(Die Deutsche Übersetzung wurde von einem Künstlichen Intelligenz Programm übersetzt und von einem Deutschsprachigen Redakteur vor der Veröffentlichung bearbeitet.)
Also Read:
In Other News Around the World:
Fiber Cassette market size is expected to expand at a 6.3% CAGR forecasted from 2023 – 2030