„Keine Angst vor KI“? Chancen und Risiken

von Achim Stadelmaier

Sonntag, 16.03.2025

Collage aus Computercode und Robotergesicht
Beitrag anhören

Künstliche Intelligenz boomt. Um sie zu trainieren, braucht man riesige Datenmengen. (Foto: Pixabay)

Immer wenn wir Google nutzen, unseren Fitness-Tracker oder das Navi im Auto, dann ist Künstliche Intelligenz (KI) im Spiel. Diese Technik durchdringt immer mehr Lebensbereiche und kann inzwischen auf Befehl Fotos, Texte oder Videos generieren.

Künstliche Intelligenz (KI) bezeichnet die Fähigkeit von Maschinen, menschenähnliche Denkprozesse auszuführen, darunter Lernen, Problemlösen und Entscheidungsfindung. Die Entwicklung der KI begann bereits in der Mitte des 20. Jahrhunderts und hat sich seitdem rasant weiterentwickelt. Ihre Ursprünge reichen bis in die 1950er Jahre zurück, als Wissenschaftler wie der Brite Alan Turing und US-Amerikaner John McCarthy die Grundlagen der Computerintelligenz erforschten.

Turing, der im 2. Weltkrieg maßgeblich an der Entschlüsselung des deutschen Enigma-Codes beteiligt war, hatte bereits 1936/37 das Konzept der "Turing-Maschine" entwickelt und stellte den nach ihm benannten Turing-Test vor. Mit ihm kann geprüft werden, ob eine Maschine intelligentes Verhalten zeigt. McCarthy wiederum prägte den Begriff "Künstliche Intelligenz" und organisierte 1956 die Dartmouth Conference, die als Geburtsstunde der modernen KI gilt. In den folgenden Jahrzehnten wurden verschiedene KI-Modelle entwickelt, darunter regelbasierte Systeme, neuronale Netze und maschinelles Lernen.

Heute findet Künstliche Intelligenz in vielen Bereichen Anwendung und ist aus unserem Alltag kaum noch wegzudenken. Beispiele dafür sind z.B. Sprachassistenten wie Siri, Alexa oder Google Assistant, die KI nutzen, um gesprochene Sprache zu verstehen und angemessen zu reagieren. In der Medizin wird Künstliche Intelligenz u.a. zur Erkennung von Krankheiten wie Krebs eingesetzt, indem sie Muster in medizinischen Bildern oder Patientendaten identifiziert. Streaming-Dienste wie Netflix oder Spotify analysieren Nutzerdaten, um den Usern passgenaue Film- und Musikvorschläge zu machen. Und in der Produktion optimiert KI Fertigungsprozesse und steuert Roboter, die wiederholende oder gefährliche Arbeiten übernehmen.

Bevor eine KI-Anwendung jedoch zum Einsatz kommen kann, muss sie zunächst einmal trainiert werden. Dies geschieht, indem die Programme mit Millionen von Daten zu einem bestimmten Problem „gefüttert“ werden. Eine Form ist das sogenannte „überwachte Lernen“. Dabei wird die KI mit gekennzeichneten Daten trainiert. Beispielsweise werden Bilder von Katzen und Hunden mit entsprechenden Labels versehen, sodass das Modell lernt, diese zu unterscheiden. Beim „unüberwachten Lernen“ analysiert die KI unstrukturierte Daten und erkennt Muster oder Zusammenhänge ohne vorgegebene Labels. Weitere „Trainingsmöglichkeiten“ sind neuronale Netze und Deep Learning: Sie simulieren die Funktionsweise des menschlichen Gehirns und ermöglichen komplexe Entscheidungsfindungen, etwa bei der Spracherkennung oder Bildverarbeitung.

Trotz der zahlreichen Vorteile birgt der Einsatz von KI auch Risiken. Eine davon ergibt sich beispielsweise aus der Art des Trainings: Wo KI-Systeme mit bestehenden Daten „gefüttert“ werden und daraus lernen, können sie dabei unbewusste Vorurteile übernehmen, was zu diskriminierenden Entscheidungen führen kann. Eine weitere Gefahr sind Veränderungen am Arbeitsmarkt: Viele einfache und mittlere Jobs könnten durch KI-basierte Automatisierung wegfallen, was zu sozialen und wirtschaftlichen Herausforderungen führt.

Schon jetzt sind negative Auswirkungen von KI-Einsatz in den Sozialen Medien zu beobachten. Durch Deepfake-Technologie und automatisierte Desinformation können KI-generierte Inhalte in Form von Fake News zur Manipulation von Menschen eingesetzt werden. Darüber hinaus kann KI in der Cyberkriminalität genutzt werden, um komplexe Hackerangriffe durchzuführen oder Sicherheitssysteme zu überlisten. Und nicht zuletzt besteht die Gefahr, dass KI in militärischen Anwendungen zum Einsatz kommt, was u.a. ethische Fragen aufwirft, da sogenannte autonome Waffen ohne menschliche Kontrolle eingesetzt werden könnten. Wie die ARD-Tagesschau am 5.2.2025 meldete, hat sich Google jüngst „vom Versprechen verabschiedet, keine Künstliche Intelligenz für Waffen zu entwickeln. Der Internet-Riese aktualisierte die Grundsätze für seine KI-Aktivitäten, in der neuen Version ist die 2018 abgegebene Selbstverpflichtung nicht mehr enthalten.“

Wie lebensgefährlich eine KI in den falschen Händen werden kann, zeigt ein Experiment von Forscher:innen der Collaborations Pharmaceuticals aus dem Jahr 2022. Wie das Portal t3n.de berichtet, forscht das Unternehmen „eigentlich mithilfe von Machine Learning an Medikamenten und neuen Behandlungsmöglichkeiten für seltene Erkrankungen.“ Die Ki untersuche „Moleküle auf ihre Toxizität, um Wirkstoffe zu erschaffen, die nicht gefährlich seien. Für die Konferenz seien die Wissenschaftler:innen jedoch gebeten worden, dieses Prinzip umzudrehen, um zu simulieren, was passieren könnte, wenn eine solche künstliche Intelligenz in die falschen Hände geriete.“ Das Resultat sei erschreckend gewesen: Der KI sei es gelungen, „in sechs Stunden 40.000 potenziell tödliche Substanzen zu erfinden. Darunter einige, die VX ähneln, einem der giftigsten Stoffe überhaupt.“

Bei der Erstellung dieses Textes hat die KI https://chatgpt.com mitgewirkt.

Sonntag, 16.03.2025