"Geht raus!
Übung macht den Chip
Hinzu kommen ungelöste Probleme wie die "Halluzinationen", also die Unsitte von Sprachmodellen, plausibel klingende, aber völlig falsche Antworten zu geben. Das ist schon in der Nutzung eines normalen Chatbots ärgerlich, aber wenn ein halluzinierendes Sprachmodell einen Roboter in die Irre schicken würde, wäre das potenziell lebensgefährlich.
Wenn also Training mit riesigen Datenmengen längerfristig nicht praktikabel ist – bedeutet das, sich vom Traum autonom arbeitender Roboter verabschieden zu müssen?
Nicht unbedingt. Tatsächlich erleben gerade Programmierverfahren, die lange spöttisch als GOFAI (good old-fashioned artificial intelligence) bezeichnet wurden, ein Comeback: Die KI soll dabei nicht mehr alles selbst lernen, sondern bekommt Vorwissen mit auf den Weg. So werden Sprachmodelle etwa mit Datenbanken verknüpft, in denen ihnen sicheres Wissen vorgegeben wird.
Maschinen mit menschlichen Gedanken zu behelligen, halten manche für einen Fehler
Damit sind Programme nicht besonders kreativ, aber man kann sich darauf verlassen, dass ihre Antworten stimmen. Die Entsprechung in der Robotik heißt GOFE, good old-fashioned engineering. So nennt der Roboterforscher Ken Goldberg von der University of California in Berkeley Versuche, den Robotern menschliches Ingenieurwissen mitzugeben: wie eine Bewegung auszusehen hat oder welche Daten wichtig sind.
KI-Pionier Richard Sutton hält diesen Weg jedoch nicht für richtig: Er warnt schon lange davor, künstliche Intelligenz durch menschliches Wissen auszubremsen. Es sei eine Sackgasse, die Maschinen mit unseren (unzulänglichen) Gedanken über die Welt zu behelligen. Stattdessen ruft Sutton eine "Ära der Erfahrung" aus: Um wirklich intelligent zu werden, müssen die Maschinen demnach lernen, lernen und nochmals lernen. Nicht aus mühsam beschafften Daten, sondern aus Erfahrungen, die sie selbst machen – mit anderen Programmen oder mit der Welt. [...]"
Zu den auch Ende des Jahres 2024 deutlich feststellbaren grundlegenden Schwachstellen der KI gehören u. a.:
- Generative KI beinhaltet systemimmanente Probleme, die zum so genannten Halluzinieren führen können, bei dem schlüssige Antworten verfasst werden, die angeblich wahr sind, obwohl es sich tatsächlich um frei erfundene Inhalte handelt.[82][83]
- Wenige marktbeherrschende Unternehmen im Zusammenhang mit den weltweiten Internetgiganten kontrollieren durch Ausnutzung ihrer bestehenden Dominanz und durch gezieltes Aufkaufen von KI-Startups die Entwicklung der künstlichen Intelligenz und verstärken dadurch umso mehr ihre monopolartigen Marktstellungen mit all den damit zusammenhängenden Nachteilen.[84]
- Manipulierbarkeit der Anwendung schon allein durch Auswahl der verwendeten KI-„Trainingsdaten“.
- Zum Teil gravierende Sicherheitsbedenken: Nutzer von insbesondere generativen KI-Modellen haben kaum Möglichkeiten, Sicherheitslücken zu erkennen. Beispielsweise ist mit Stand Februar 2025 bei der DeepSeek-AI von einer sehr weitreichenden Speicherung von auch vertraulichen Nutzerdaten auszugehen.[85]
- KI neigt dazu, bereits bestehende gesellschaftliche Diskriminierungsverhältnisse zu reproduzieren. Wenn die Daten, mit denen eine KI trainiert wird, z. B. bereits einen sexistischen oder rassistischen Bias haben, wirkt sich dieser auch auf die Funktionen der KI aus. Es gibt vor allem bei mittels KI automatisierten Entscheidungsprozessen eine Reihe von Beispielen, bei denen marginalisierte Gruppen benachteiligt werden.[86][87] So wurde z. B. im November 2025 bekannt, dass KI, die Dialekte hört bzw. liest, oft unfair urteilt, indem sie Vorurteile gegenüber Menschen mit Dialekt zum Ausdruck bringt und Eigenschaften wie „ungebildet“ und „unfreundlich“ auswählt.[88] [...]"
Keine Kommentare:
Kommentar veröffentlichen