ChatGPT, entwickelt von OpenAI, gehört zu den sogenannten Large Language Models (LLM). Es kann Antworten auf eine Vielzahl von Eingabeaufforderungen generieren, die von einfachen Fragen bis hin zu komplexen Gesprächen reichen und die in ihrer Qualität von menschlichen Antworten kaum zu unterscheiden sind. Weltweit wird es seit dem Start im November 2022 von einer Vielzahl von Menschen genutzt. Seine Fähigkeit, basierend auf allen im August 2022 im Internet vorhandenen Inhalten Texte zu erstellen, hat viele Benutzer verblüfft und begeistert.
Während Google einen sehr strukturierten und iterativen Ansatz verfolgt und sich auf inkrementelle Verbesserungen konzentriert, ist ChatGPT explorativer, experimenteller und damit schneller im Rollout, wobei der Schwerpunkt auf der Entdeckung neuer, innovativer Anwendungsfälle liegt – und natürlich auch darauf, Erster am Markt zu sein.
OpenAI erklärt, dass ChatGPT nur veröffentlicht wird um „das Feedback der Nutzer zu erhalten und Stärken und Schwächen der Software zu erkennen.“ Mit anderen Worten: es ist alles andere als perfekt. Nachdem die anfängliche Begeisterung verflogen scheint, ist es an der Zeit, sich mit den Grenzen zu befassen, die ChatGPT in einigen Bereichen offenbart:
1. ChatGPT und Datenschutz
Italien ist das erste westliche Land, das die KI blockiert. Es wird – zumindest vorübergehend – die neueste Version von ChatGPT aus Datenschutzgründen verbieten, da die Software, Informationen ohne Erlaubnis des Nutzers abrufen kann. Mehrere Unternehmen haben zu ähnlichen Maßnahmen gegriffen: JP Morgan hat seinen Mitarbeitern die Nutzung von ChatGPT verboten; Berichten zufolge hat Amazon Teammitglieder angewiesen, die KI nicht mit vertraulichen Kundendaten zu füttern, und sowohl Verizon als auch Accenture haben ähnliche Schritte unternommen.
2.Probleme mit dem Urheberrecht
Was ChatGPT und ähnliche KI tun ist letztlich nichts anderes, als vorhandenen Text in beliebig vielen Varianten zusammenzustellen. Die KI gibt einer beliebigen Anzahl an Inhalten aus einer immensen Vielfalt von Websites Struktur und eröffnet so die Möglichkeit, weitere Fragen zu stellen – und sie gelegentlich auch beantwortet zu bekommen. Aber die KI versteht oder verfasst keinen Text. Aus diesem Grund verbieten wissenschaftliche Publikationen die Auflistung von ChatGPT als Co-Autor in Artikeln. Damit hängt unmittelbar die Frage des Urheberrechts zusammen. Derzeit ist ChatGPT äusserst sparsam mit Quellen oder Credits. Auf die Frage nach diesem Thema witzelte ein Schulungsleiter für ChatGPT: „Dies ist der Moment, in dem wir langsam rückwärts durch die Hecke verschwinden.“
3. Vorurteile, Fiktion, Fakten – Wahrheit und Lüge
KI lernt auf der Grundlage der verfügbaren Inhalte und des Feedbacks. Da viele der Inhalte, die im Internet veröffentlicht werden, Vorurteile oder diskriminierende Einstellungen enthalten oder widerspiegeln, geben die Ergebnisse ebenfalls diese Inhalte wieder. Ein Chatbot hat keine Vorstellung von der Wahrheit, seine Fähigkeit besteht nicht darin, Informationen auszuwerten, sondern darin sie neu anzuordnen, neu zu strukturieren. Er weiß einfach nicht, was Wahrheit und was Lüge ist. Es ist extrem schwierig, KI so zu kontrollieren, dass sie bei der Wahrheit bleibt und keine Vorurteile spiegelt.
Zukünftige KI-Systeme müssen auf neuen Technologien basieren, es wird nicht möglich sein, den aktuellen LLMs das fiktionale Erzählen auszutreiben.
4. KI kontrollieren
Ende März unterzeichneten Grössen der Tech-Branche einen offenen Brief, in dem sie vor möglichen Risiken leistungsfähiger KI-Systeme warnten. Darin heißt es, dass KI Informationskanäle mit Falschinformationen überflutet und Arbeitsplätze durch Automatisierung ersetzen könnten. So prognostiziert ein Bericht der Investmentbank Goldman Sachs einen Verlust von bis zu 300 Millionen Arbeitsplätzen aufgrund der Produktivitätssteigerung und Automatisierung durch KI. Und in einem kürzlich veröffentlichten Blogbeitrag warnte OpenAI selbst vor den Risiken, wenn eine AGI ohne jegliche Auflagen und Kontrolle entwickelt würde.
Vor diesem Hintergrund schrieb die stellvertretende Generaldirektorin des Europäischen Verbraucherverbands BEUC, dass die Gesellschaft „derzeit nicht ausreichend vor dem Schaden,“ den KI verursachen kann geschützt ist. „Es gibt ernsthafte Bedenken wie ChatGPT und ähnliche Chatbots Menschen täuschen und manipulieren könnten. Diese KI-Systeme müssen stärker von der Öffentlichkeit unter die Lupe genommen werden, und die Behörden müssen die Kontrolle über sie zurückbekommen“, sagte sie.
Changen und Risiken von ChatGPT
Künstliche Intelligenz kann in vielen Bereichen eine Reihe von Vorteilen bringen, sowohl für Unternehmen als auch für Bürger. Nehmen wir Kommunikation: KI hilft Menschen, die keine gemeinsame Sprache haben, dennoch miteinander zu kommunizieren, ebenso wie sie Menschen hilft, mit Computern zu kommunizieren. ChatGPT produziert sehr gute Texte. Das System verfügt nicht nur über umfangreiches Wissen, es kann dieses Wissen auch hervorragend in Form bringen und kommunizieren. Und manche Menschen argumentieren nicht zu Unrecht, dass Vorurteile bei einer KI einfacher zu beseitigen sind als bei Menschen.
Wir dürfen jedoch nicht vergessen, dass Inhalte, die von einer KI erstellt werden, zwar in einigen Fällen auf Fakten basieren, aber letztlich immer Fiktion sind. Wenn der Bot kritisch hinterfragt wird – und die Benutzeroberfläche macht es sehr einfach möglich – gibt er fast immer zu, dass die scheinbaren Fakten frei erfunden waren. KI versteht oder schreibt keine Texte. Sie schafft lediglich unendlich viele neue Kombinationsmöglichkeiten für bereits vorhandene Inhalte. Sie ist und bleibt reaktiv und sie kann nicht eigenständig argumentieren.
KI – mit Vorsicht genießen
Wir sollten ChatGPT weder dämonisieren noch glorifizieren. Es ist nicht der erste Schritt zur Schaffung einer AGI, die die ganze Welt auf der Grundlage aller online verfügbaren Texte, des gesamten menschlichen Wissen, versteht. Aber es ist auch kein „Teufelszeug“. Es ist ein Werkzeug, eine Schnittstelle in unsere digitalisierte Welt, um all das Wissen, all die Texte für uns zugänglich zu machen. Es ist ein großartiges Instrument, auf dem man spielen kann, um Menschen zu helfen, Antworten auf Fragen zu finden oder Schreibblockaden zu lösen. Solange wir uns dessen bewusst sind, dass es nicht mehr ist als ein Startpunkt, und solange wir kein Wort glauben, ohne es vorher genau geprüft zu haben, kann es eine wertvolle Unterstützung für uns sein.