Trend Micro veröffentlicht neue Forschungsergebnisse, die davor warnen, dass Unternehmen beim Einsatz von Large Language Models (LLMs) ohne angemessene Regularien, Verifikation und Aufsicht erhebliche rechtliche, finanzielle und reputationsbezogene Risiken eingehen. Je nach geografischem Standort, Sprache, Modelldesign und integrierten Kontrollmechanismen liefern KI-Systeme teils deutlich unterschiedliche Ergebnisse.
Trend-Micro-Forscher testeten mehr als 100 KI-Modelle mit über 800 gezielt entwickelten Prompts, um Verzerrungen, politisches und kulturelles Kontextverständnis, Geofencing-Verhalten, Signale zur Datensouveränität sowie kontextuelle Einschränkungen zu analysieren.
Tausende wiederholte Experimente dienten dazu, Veränderungen der Ausgaben über Zeit und Standorte hinweg zu messen. Insgesamt werteten die Forscher mehr als 60 Millionen Eingabetokens und über 500 Millionen Ausgabetokens aus.
Die Ergebnisse zeigen, dass identische Eingaben je nach Region und Modell unterschiedliche Antworten erzeugen und selbst bei wiederholten Interaktionen mit demselben System variieren. In politisch sensiblen Szenarien, etwa bei der Darstellung umstrittener Gebiete oder nationaler Identitäten, weisen die Modelle klare regionale Ausrichtungsunterschiede auf.
In weiteren Tests lieferten die Systeme inkonsistente oder veraltete Ergebnisse in Bereichen, die hohe Präzision erfordern, darunter Finanzberechnungen und zeitkritische Informationen.
„Viele Unternehmen gehen davon aus, dass KI wie klassische Software funktioniert, bei der dieselbe Eingabe zuverlässig dieselbe Ausgabe erzeugt. Unsere Forschung zeigt, dass diese Annahme nicht zutrifft“, erklärt Robert McArdle, Director of Cybersecurity Research bei Trend Micro.
„LLMs verändern ihre Antworten abhängig von Region, Sprache und Schutzmechanismen und diese Antworten können sich von einer Interaktion zur nächsten unterscheiden. Werden KI-Ausgaben direkt in Customer Journeys oder Geschäftsentscheidungen eingebunden, riskieren Unternehmen den Verlust der Kontrolle über Markenkommunikation, Compliance-Positionierung und kulturelle Anschlussfähigkeit.“
Der Bericht hebt hervor, dass sich diese Risiken insbesondere für globale Unternehmen verstärken, die KI grenzüberschreitend einsetzen. Dort müsse ein KI-gestützter Service häufig gleichzeitig unterschiedlichen rechtlichen Rahmenbedingungen, politischen Sensibilitäten und gesellschaftlichen Erwartungen gerecht werden.
Zudem verweist die Studie auf besondere Herausforderungen für den öffentlichen Sektor: KI-generierte Inhalte könnten dort als offizielle Orientierung wahrgenommen werden, während der Einsatz nicht lokalisierter Modelle Risiken für Souveränität und Zugänglichkeit berge.
„KI sollte nicht als Plug-and-Play-Produktivitätswerkzeug betrachtet werden. Unternehmen müssen sie als Abhängigkeit mit hohem Risiko behandeln, die klare Regularien, eindeutige Verantwortlichkeiten und die menschliche Verifikation aller nutzerseitigen Ausgaben erfordert“, ergänzt McArdle.
„Dazu gehört auch, von KI-Anbietern Transparenz darüber einzufordern, wie sich Modelle verhalten, auf welchen Daten sie basieren und wo Schutzmechanismen greifen. Wenn KI mit einem klaren Verständnis ihrer Grenzen eingesetzt wird und mit Kontrollmechanismen, die dem tatsächlichen Verhalten dieser Systeme in realen Umgebungen Rechnung tragen, kann sie Innovation und Effizienz erheblich vorantreiben.“