ChatGPT ist eines der dominierenden Themen der vergangenen Monate. Besonders Anfang 2023 kam kaum eine Nachrichtenagentur darum herum, über den Chatbot zu berichteten. Waren die meisten Artikel zu Beginn noch vermehrt mit Humor versehen („ChatGPT scheitert an bayerischem Abitur“, Spiegel 10.02.2023), änderte sich die Klangfarbe der meisten Artikel sehr deutlich („Kann eine KI die Welt erobern?“, Tagesspiegel 05.04.2023).

Viacheslav Gromov, Gründer und Geschäftsführer von AITAD, äußert sich in diesem Beitrag zu den Mängeln der aktuellen KI-Diskussionen.

Spätestens seit dem Elon Musk Ende März vor der Weiterentwicklung von KI warnte und Italien die Anwendung ChatGPT teilweise deaktivierte, scheint das Thema der „KI-Gefahr“ verstärkt in Mainstream-Diskussionen angekommen zu sein. Dies bestätigte sich auch, als der Blogger Sascha Lobo in der Fernsendung Markus Lanz am 3. Mai die potenziellen Gefahren von Deep Fakes (und damit KI) verdeutlichte, indem er Olaf Scholz mithilfe einer Computerstimme falsche Worte in den Mund legen ließ.

Wie so oft stellt sich in den Medien und der Politik die Grundsatzfrage, ob Künstliche Intelligenz gefährlich für den Menschen ist oder im Gegenteil dazu vielmehr hilfreich. Häufig wird im Rahmen dieser Diskussionen vergessen, dass KI nicht gleich KI ist. Durch diese Generalisierung der Technologie kann es allerdings zu Nachteilen kommen, die in der Folge auch den Wirtschaftsstandort Deutschland im empfindlichen Maße schwächen können.

Es ist wichtig zwischen generativer KI und diskriminativen KI zu unterscheiden
Bereits seit Jahren dominieren China und die USA die Entwicklungen und Innovationen im Bereich der künstlichen Intelligenz. Liegt es in den USA unter anderem an den großen Technik-Unternehmen, wie zum Beispiel Google oder Amazon, kann in China unter anderem der lockerere Umgang mit der Thematik Datenschutz als Anhaltspunkt für diese Vorreiterstellung angesehen werden. Diese Tendenzen setzen sich im Bereich der Akzeptanz und dem tatsächlichen Einsatz von künstlicher Intelligenz fort.

So nutzen in Deutschland aktuell nur neun Prozent der Unternehmen künstliche Intelligenz (was einen Anstieg von drei Prozent seit dem Jahr 2020 bedeutet), 29 Prozent gaben hingegen an, dass sie eine KI-Nutzung im eigenen Unternehmen ausschließen, einen Einsatz dementsprechend aktuell noch gar nicht planen (Vgl. jeweils zitiert nach de.statista.com 2023). Dadurch verliert der Wirtschaftsstandort Deutschland international den Anschluss an die hochautomatisierte Konkurrenz.

Konkret könnten die Auswirkungen eines KI-Verbots folgendermaßen aussehen:

  • Innovationshemmung: Ein Verbot oder strenge Beschränkungen für KI könnten die Innovation und Fortschritte auf dem Gebiet erheblich hemmen. KI-Technologien haben das Potenzial, große gesellschaftliche Vorteile zu bringen, die sich auf unterschiedliche Bereiche (wie Medizin, Mobilität oder Sicherheit) beziehen. Durch ein Verbot könnten wertvolle Möglichkeiten verpasst werden, komplexe Probleme zu lösen.

  • Wettbewerbsnachteile: Einseitige Verbote könnten zu Wettbewerbsnachteilen für Länder oder Unternehmen führen, die KI nutzen möchten, um ihre Industrien voranzutreiben. Wenn ein Land KI-Technologien verbietet, während andere Nationen diese weiterentwickeln, besteht die Gefahr, dass es auf globaler Ebene abgehängt wird. Dies hätte Auswirkungen auf die Wirtschaft, den Arbeitsmarkt und die internationale Zusammenarbeit. Damit folgt auch fehlender Einfluss auf ethische Auswirkungen, zum Beispiel bei der Achtung von Datenschutzrichtlinien.

In diesem Kontext ist, wie so oft bei der öffentlichen Berichterstattung, die Generalisierung der Thematik KI zu sehen. Grundsätzlich gibt es keine einheitliche Definition des „Begriffes“ Künstliche Intelligenz. Dies liegt daran, dass die einzelnen KI-Ausprägungen sich deutlich voneinander unterscheiden. Das trifft nicht nur auf das maschinelle Lernen (ML) zu, bei dem zwischen dem überwachten und dem unüberwachten unterschieden wird, sondern auch auf die Arten der künstlichen Intelligenzsysteme.

Bei dem Chatbot ChatGPT handelt es sich um ein generatives KI-Intelligenzsystem. Damit beschreibt man jede Art von künstlicher Intelligenz, mit der neue Texte, Bilder, Videos, Audios, Codes oder synthetische Daten erstellt werden können. Im Gegensatz dazu gibt es auch die diskriminativen KI-Modelle, die keinen Content erzeugen, sondern vielmehr darauf spezialisiert sind, bestehende Datensätze zu beschreiben und in der Folge auszuwerten und zu interpretieren.

Damit können unter anderem Krankheitsbilder von Patienten eingeordnet und eine Diagnose mit empfehlenswerter Behandlung ausgestellt werden. Die KI benötigt zur Auswertung dieser Daten deutlich weniger Zeit als der Mensch und ist in dieser Beziehung als unterstützender, nicht als erzeugender Faktor tätig. Ein KI-Moratorium würde die generative und die diskriminative KI in gleichem Maße treffen, obwohl die beiden Arten grundsätzlich unterschiedliche Auswirkungen auf ihre Umwelt haben.

Die AITAD GmbH beschäftigt sich seit dem Jahr 2018 mit Embedded-KI, der neuesten Entwicklungsstufe im Bereich der künstlichen Intelligenz, die seit knapp drei Jahren dem reinen Forschungsstadium entwachsen ist. Diese Technologie unterscheidet sich elementar von den verbreiteteren Cloud- und Edge-Lösungen am Markt, was unter anderem dadurch deutlich wird, dass keine Netzwerkanbindung mehr notwendig ist und die Funktion der Anwendung auch im autarken Zustand gewährleistet ist. So können neue Funktionen in Geräten implementiert, Prozesse in Produktionsanlagen optimiert oder die Ausfallsicherheit in Fahrzeugen verbessert werden.

KI-Verallgemeinerung in Unternehmen, Politik und Gesellschaft an der Tagesordnung
Gromov kennt das Problem der KI-Verallgemeinerung: „Immer wieder stehen wir vor dem Problem, dass wir mit Unternehmen sprechen, die den Unterschied zwischen Cloud-, Edge- und Embedded-Lösungen nicht kennen und in diesem Kontext auch nicht zwischen generativer und diskriminativer KI unterscheiden. Die Gesellschaft und Politik müssen lernen, dies zu unterscheiden.“

Laut Gromov ist dieser Umstand ein großes Problem, denn immer, wenn über KI als Gefahr gesprochen wird, werden sämtliche verschiedenen Ausprägungen in einen Topf geworfen und eine klare Abgrenzung der verschiedenen KI-Technologien findet schlicht und ergreifend nicht statt. Auch ein KI-Verbot sieht der Experte in diesem Rahmen kritisch.

„Sollte es zu einem Verbot kommen, würde das zu einer enormen Schwächung der KI-Branche, aber auch der gesamten deutschen und westlicher Volkswirtschaft führen. Es wäre bei uns ein Stillstand nach Rasenmäher-Prinzip, wobei der asiatische Wettbewerb dies als willkommene Chance begreifen wird.“ Vor allem die diskriminativen KI-Modelle sollten vor einem Entwicklungsverbot geschützt werden, da sie das Leben der Menschen ohne Nebenwirkungen erleichtern und einen deutlichen Mehrwert bieten.

Erklärung diskriminative Künstlicher Intelligenz
Eine diskriminative Künstliche Intelligenz (KI) ist ein Modell oder ein Algorithmus, der darauf abzielt, direkt eine Zuordnung oder Klassifikation zwischen verschiedenen Eingaben und Ausgaben herzustellen, ohne eine explizite Modellierung der zugrunde liegenden Datenverteilung vorzunehmen.

Im Gegensatz zu generativen Modellen wird dementsprechend kein neuer Content erzeugt, sondern die erfassten Daten lediglich kategorisiert, eingeordnet und interpretiert. Beispiele für diskriminative KI können beispielsweise die Objekterkennung (zum Beispiel die Erkennung eines Hindernisses oder einer falschen Positionierung) oder die Spracherkennung (zum Beispiel die Steuerung der Amazon Alexa) sein.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.