Mit dem KI-basierten Dialogsystem ChatGPT der Firma OpenAI ist ein neuer Stern am Tech-Firmament aufgegangen, der von allen Seiten viel Beifall findet. Der Chatbot vermittelt den Eindruck eines echten, lebendigen Gesprächs und liefert beeindruckende Ergebnisse in unzähligen Bereichen. Die Fähigkeiten von ChatGPT scheinen auf den ersten Blick grenzenlos.

Dr. Christoph Goller, Research Director bei der IntraFind Software AG, geht hier der Frage nach, ob mit ChatGPT die Tage der klassischen Unternehmens-Suchmaschinen gezählt sind, kommt aber zu dem Schluss, dass das aus folgenden Gründen eher nicht der Fall sein wird.

Als erstes wäre da der Aspekt der Hardware-Kosten und damit der Skalierbarkeit. Dank des Hypes nutzen derzeit Millionen Menschen täglich ChatGPT, allerdings eher zum Spaß und zum Ausprobieren. In einem Unternehmenskontext wäre die Dichte an Suchanfragen pro Person aber um einiges höher und somit mit der derzeitigen Last vergleichbar.

Das Problem: Schon heute liegen die Hardware-Kosten der Entwicklerfirma OpenAI bei geschätzten 100.000 Dollar – pro Tag. Für die allermeisten Organisationen ist der praktische Einsatz der KI also nicht wegen möglichen technischen Shortcomings problematisch, sondern aus Gründen der fehlenden Wirtschaftlichkeit: Die künstliche Intelligenz ist in der Praxis schlicht zu teuer.

Der zweite – und noch zentralere – Punkt, der gegen einen großflächigen Einsatz von ChatGPT und ähnlich gelagerten Lösungen spricht, betrifft die korrekte Wiedergabe des Vokabulars für spezialisierte Bereiche. Die unüberwacht trainierten Transformer-Modelle, die modernen Texterkennungs- und Chat-Programmen zu Grunde liegen, können domänenspezifische Inhalte nicht adäquat behandeln.

Beispiele dafür sind etwa unternehmensabhängige Fehler- oder Produktcodes, auf die eine KI speziell trainiert werden muss. Diese Abstimmung auf spezifische Besonderheiten ist nicht nur rechenintensiv, sie gestaltet sich wegen der benötigten manuell gelabelten Daten auch äußerst schwierig.

Ein Grund dafür, dass ChatGPT die uns bekannten Suchmaschinen vorerst nicht ohne Weiteres ablösen wird, ist allerdings sehr viel offenkundiger: Die Antworten lesen sich in vielen Fällen schlüssig und sind dank des fortgeschrittenen Sprachmodells in einen glaubwürdigen Kontext verpackt.

Auf den zweiten Blick entpuppen sich viele der Angaben allerdings als absolut haltlose Falschaussagen. Ein Beispiel: Auf die Frage, wo in Bayern die besten Wattwanderungen zu finden sind, antwortet ChatGPT mit den Inseln Rügen und Amrum. Knapp vorbei.

Bei dem aktuell großen Hype um die KI dürfen wir nicht vergessen, dass es sich dabei um eine Testversion handelt, die auf das Feedback der Anwender angewiesen ist, um weiter zu lernen und besser zu werden. So antwortet der Chatbot auf ein und dieselbe Frage durchaus auch mit unterschiedlichen Lösungen, oft mit widersprüchlichen Inhalten.

All diese Feststellungen ändern nichts daran, dass ChatGPT eine wirklich beeindruckende Technologie ist und Deep Learning sowie die Leistung der darunterliegenden Transformer auf ein neues Level hebt. Das Programm verbindet Semantik und Syntax dabei auf eine Art und Weise, die täuschend echte Gesprächsverläufe ermöglicht.

Es wäre aber ein Fehler, die von der KI erzeugten Antworten als zuverlässige Wissensquelle anzusehen. Von diesem Punkt sind wir aktuell noch weit entfernt. Auch wenn wir eines Tages an dieses Ziel gelangen sollten, im Moment produzieren die Modelle noch oftmals mehr oder weniger fundierte Vermutungen, stellen falsche Verbindungen her oder geben auch gerne mal inhaltlichen Unfug grammatikalisch korrekt als Wahrheit aus.

Da es zum guten Ton gehört, nicht nur übereinander, sondern auch miteinander zu sprechen, fragen wir ChatGPT an dieser Stelle doch mal, ob sich die KI selbst als Suchmaschinenersatz sieht:

„Es ist möglich, dass Sprachmodelle wie ich in Zukunft in der Lage sein werden, einige der Funktionen von Suchmaschinen zu ersetzen oder zu ergänzen. Allerdings sind Suchmaschinen auf eine breite Palette von Daten und Technologien angewiesen, um ihre Ergebnisse zu generieren und zu optimieren. Dazu gehören Dinge wie maschinelles Lernen, künstliche Intelligenz, Web Crawler, Indexierung und vieles mehr. Es ist unwahrscheinlich, dass ein einziges Sprachmodell alle diese Funktionen in naher Zukunft ersetzen kann.“

Dem ist wohl nichts hinzuzufügen....

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.