- Von Chris Vallance
- Technologie-Reporter
Bildnachweis, Getty Images
Ein neuer Chatbot hat laut dem dahinter stehenden Projekt in weniger als einer Woche die Marke von einer Million Benutzern überschritten.
ChatGPT wurde am Mittwoch von OpenAI veröffentlicht, einem Forschungsunternehmen für künstliche Intelligenz, das Elon Musk zu seinen Gründern zählt.
Das Unternehmen warnt jedoch davor, dass es problematische Antworten geben und voreingenommenes Verhalten zeigen kann.
Open AI sagt, es freue sich darauf, Benutzerfeedback zu sammeln, um uns bei der Verbesserung dieses Systems zu helfen.
ChatGPT ist die neueste in einer Reihe von KIs, die das Unternehmen als GPT bezeichnet, ein Akronym, das für Generative Pre-Trained Transformer steht.
Um das System zu entwickeln, wurde eine frühe Version durch Gespräche mit menschlichen Trainern verfeinert.
Laut einem Tweet von Elon Musk, der nicht mehr im OpenAI-Vorstand ist, lernte das System auch durch den Zugriff auf Daten von Twitter. Der Twitter-Chef schrieb, er habe den Zugriff „vorerst“ pausiert.
Die Ergebnisse haben die Leute beeindruckt, die den Chatbot ausprobiert haben. Sam Altman, CEO von OpenAI, offenbarte in einem Tweet das große Interesse an dem künstlichen Gesprächspartner.
“ChatGPT wurde am Mittwoch gestartet. Heute hat es 1 Million Benutzer überschritten!” sagte Sam Altman in einem Tweet.
Laut dem Projekt ermöglicht das Chat-Format der KI, „Folgefragen zu beantworten, Fehler einzugestehen, falsche Prämissen zu hinterfragen und unangemessene Anfragen abzulehnen“.
Ein Reporter der Tech-News-Site Mashable, der ChatGPT ausprobierte, sagte, es sei schwierig, das Modell dazu zu bringen, beleidigende Dinge zu sagen.
Bildnachweis, Getty Images
Das Open AI-Logo
Mike Pearl schrieb, dass in seinen eigenen Tests “sein Tabuvermeidungssystem ziemlich umfassend ist”.
OpenAI warnt jedoch davor, dass „ChatGPT manchmal plausibel aussehende, aber falsche oder unsinnige Antworten schreibt“.
Nach Angaben des Unternehmens führt das Training des Modells zu mehr Vorsicht dazu, dass es sich weigert, Fragen zu beantworten, die es richtig beantworten kann.
Von der BBC für diesen Artikel kurz interviewt, erwies sich ChatGPT als vorsichtiger Gesprächspartner, der sich in Englisch klar und präzise ausdrücken konnte.
Glaubte er, dass die KI die Arbeit menschlicher Schriftsteller übernehmen würde? Nein – er behauptete, dass „KI-Systeme wie ich Autoren helfen können, indem sie Vorschläge und Ideen liefern, aber letztendlich ist es Sache des menschlichen Autors, das Endprodukt zu erstellen.“
Auf die Frage, welche sozialen Auswirkungen KI-Systeme wie seines haben würden, sagte er, es sei „schwer vorherzusagen“.
Wurde das System auf Twitter-Daten trainiert? Er antwortete, dass er es nicht wisse.
Erst als die BBC nach HAL, der fiktiven böswilligen KI aus dem Film von 2001, fragte, schien er nervös zu sein.
Bildnachweis, OpenAI/BBC
“War HAL unschuldig?” Eine Frage, die ChatGPT nicht beantworten wollte – oder vielleicht nur eine Fehlfunktion.
Obwohl dies höchstwahrscheinlich ein zufälliger Fehler ist – was angesichts des Umfangs des Interesses nicht verwundert.
Die Stimme seines Meisters
Andere Unternehmen, die Konversations-KIs für den allgemeinen Gebrauch geöffnet haben, haben festgestellt, dass sie dazu überredet werden können, beleidigende oder abfällige Dinge zu sagen.
Viele von ihnen werden aus riesigen Datenbanken mit Texten gebildet, die aus dem Internet abgerufen wurden, und lernen daher sowohl die schlechtesten als auch die besten menschlichen Ausdrucksformen.
Metas BlenderBot3 äußerte sich in einem Gespräch mit einem BBC-Reporter sehr kritisch gegenüber Mark Zuckerberg.
Im Jahr 2016 entschuldigte sich Microsoft, nachdem ein experimenteller Twitter-Bot namens „Tay“ beleidigende Kommentare auf der Plattform abgegeben hatte.
Und andere haben festgestellt, dass der Erfolg beim Erstellen eines überzeugenden Computers als Redner manchmal zu unerwarteten Problemen führt.
Lamda von Google war so plausibel, dass ein ehemaliger Mitarbeiter zu dem Schluss kam, dass es empfindungsfähig sei und die Rechte eines denkenden, empfindungsfähigen Wesens verdiene, einschließlich des Rechts, nicht gegen seinen Willen in Experimenten verwendet zu werden.
Die Fähigkeit von ChatGPT, Fragen zu beantworten, lässt einige Benutzer fragen, ob es Google ersetzen könnte.
Andere fragten sich, ob die Jobs von Journalisten gefährdet seien. Emily Bell vom Tow Center for Digital Journalism äußerte sich besorgt, dass die Leser mit „Unsinn“ überhäuft werden könnten.
„ChatGPT beweist meine größten Befürchtungen über KI und Journalismus – nicht dass echte Journalisten in ihrer Arbeit ersetzt werden – sondern dass diese Fähigkeiten von schlechten Schauspielern genutzt werden, um selbst die erstaunlichste Menge an irreführenden Keilen zu erzeugen, die die Realität ersticken“, befürchtet Journalistin Emilie Bell in einem Tweet.
Eine Q&A-Site musste einmal eine Flut von KI-generierten Antworten eindämmen.
Andere luden ChatGPT ein, über die Auswirkungen von KI auf Medien zu spekulieren.
Allzweck-KI-Systeme wie ChatGPT und andere bergen laut Carly Kind vom Ada Lovelace Institute eine Reihe ethischer und gesellschaftlicher Risiken.
Zu den potenziellen Problemen, über die Frau Kind besorgt ist, gehört, dass KI Fehlinformationen aufrechterhalten oder „bestehende Institutionen und Dienste stören könnte – ChatGPT könnte beispielsweise in der Lage sein, eine Bewerbung, einen Schulaufsatz oder einen Zuschuss für eine Bewerbungsmesse zu schreiben“.
Es gibt auch Probleme mit Urheberrechtsverletzungen, „und es gibt auch Datenschutzbedenken, da diese Systeme oft Daten enthalten, die unethisch von Internetnutzern gesammelt wurden.“ .
Sie sagte jedoch, sie könnten auch “interessante und noch unbekannte gesellschaftliche Vorteile” bieten.
ChatGPT lernt aus menschlichen Interaktionen, und Sam Altman, CEO von OpenAI, sagte auf Twitter, dass diejenigen, die in diesem Bereich arbeiten, ebenfalls viel zu lernen haben.
KI hat „einen langen Weg vor sich und große Ideen zu entdecken. Wir werden auf dem Weg stolpern und viel aus realen Erfahrungen lernen.
„Es wird manchmal chaotisch sein. Manchmal werden wir sehr schlechte Entscheidungen treffen, manchmal werden wir Momente transzendenten Fortschritts und Werts haben“, schrieb er.