Halluzinationen sind Lügen – Netzagentur warnt vor blindem KI-Vertrauen

Wenn KI nicht Fakten, sondern Fiktion liefert, kann das gefährlich werden – davor warnt Bundesnetzagentur-Chef Klaus Müller. Besonders im gesellschaftlichen und historischen Kontext seien „Halluzinationen“ nichts anderes als Lügen. Wer ihnen unkritisch vertraut, riskiere das Vertrauen in Medien, Institutionen und die Demokratie.

Bonn (red) – Die Bundesnetzagentur warnt vor einem unkritischen Umgang mit “Lügen” von Künstlicher Intelligenz. Es gebe “Gefahren und Herausforderungen”, die vor allem mit der Qualität der Sprachmodelle wie ChatGPT oder Gemini zu tun hätten, sagte Behördenpräsident Klaus Müller der “Neuen Osnabrücker Zeitung”.

ANZEIGE

Bei mathematischen oder naturwissenschaftlichen Aufgaben sei das “relativ unproblematisch”, da es um richtig oder falsch gehe. “Geht es aber um Aussagen in einem gesellschaftspolitischen oder historischen Kontext, und die KI halluziniert, dann ist das nur ein netteres Wort für Lügen. Da liegt die Gefahr”, sagte Müller und erläuterte: “Denn wenn Personen, Institutionen, Medien unkritisch mit dieser Technologie umgehen, kann das Vertrauen beschädigt werden, und es können gravierende Fehler gemacht werden. Ja, das treibt mich um.”

Die Bundesnetzagentur ist in Deutschland für die Durchsetzung der europäischen KI-Verordnung zuständig. Sorgen, eine Super-KI könne sich verselbstständigen und der menschlichen Kontrolle entziehen, trat Müller entgegen: “Dass demnächst ein `Terminator` aus den Laboren von ChatGPT oder Gemini entsteigt und uns zu seinen Knechten macht? Nein, diese Fantasie teile ich nicht.”

ANZEIGE