Zum Hauptinhalt springen

Ethik, Grenzen & EU-Richtlinien

Folgen generativer KI und Grenzen künstlicher Intelligenz

Teaser – volle Lektion nach Anmeldung

Lernziele dieser Lektion

  • Wichtige Folgen und Risiken generativer KI benennen können (Deepfakes, Urheberrecht, Halluzinationen)
  • Die Grenzen heutiger KI-Systeme verstehen: fehlerhafte Trainingsdaten, Bias und Halluzinationen
  • Das Konzept der Voreingenommenheit (Bias) in KI-Systemen erklären und Beispiele nennen
  • KI-Halluzinationen definieren und deren Ursachen beschreiben können

Folgen und Implikationen generativer KI

Generative KI – Systeme wie ChatGPT, DALL-E oder Midjourney, die Texte, Bilder, Audio und Video erzeugen können – hat enormes Potenzial, bringt aber auch erhebliche Risiken mit sich. Die wichtigsten Problemfelder:

Deepfakes und Fake News

Deepfakes sind täuschend echte, KI-generierte Medieninhalte – manipulierte Videos, Bilder oder Audiodateien, die reale Personen zeigen, wie sie Dinge tun oder sagen, die nie stattgefunden haben. Diese Technologie kann für Desinformation, Betrug und Manipulation missbraucht werden.

Reale Gefahr

Deepfakes wurden bereits genutzt, um politische Persönlichkeiten in gefälschten Situationen darzustellen. So verbreiteten sich KI-generierte Bilder eines angeblich verhafteten Politikers viral – obwohl die Verhaftung nie stattgefunden hatte. Das Unterscheiden von Realität und Fälschung wird immer schwieriger.

Urheberrechtsfragen

Generative KI wirft grundlegende Fragen zum Urheberrecht auf: Wer ist der Urheber eines KI-generierten Textes, Bildes oder Musikstücks? Die KI, die Entwickler*innen oder die Person, die den Prompt geschrieben hat? Diese Frage ist rechtlich noch nicht abschliessend geklärt und wird von Fall zu Fall unterschiedlich beurteilt.

Hinzu kommt: Viele KI-Modelle wurden mit urheberrechtlich geschützten Werken trainiert – ohne Zustimmung der Urheber*innen. Dies hat zu bedeutenden Gerichtsverfahren geführt.

Auswirkungen auf Bildung

Generative KI verändert das Bildungswesen grundlegend: Schüler*innen und Studierende können Abschlussarbeiten, Prüfungen und Hausaufgaben von KI erstellen lassen. Bildungseinrichtungen stehen vor der Herausforderung, Prüfungsformate anzupassen und den sinnvollen Einsatz von KI-Tools zu fördern, anstatt ihn nur zu verbieten.

Weitere Implikationen

  • Ethische Fragen und Beeinflussbarkeit: KI-Systeme können Meinungen beeinflussen und manipulieren
  • Vermenschlichung: Menschen neigen dazu, KI-Systeme zu vermenschlichen (z.B. „Bitte“, „Danke“, „Entschuldigung“ zu einem Chatbot zu sagen)
  • Datenschutz: KI-Systeme verarbeiten große Mengen personenbezogener Daten, deren Schutz gewährleistet sein muss

Die Grenzen der KI

Trotz beeindruckender Fortschritte hat Künstliche Intelligenz klare Grenzen. Diese zu kennen ist wichtig, um KI-Ergebnisse richtig einschätzen zu können.

Fehlerhafte oder unvollständige Trainingsdaten

KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert wurden. Wenn Situationen in den Trainingsdaten nicht vorkommen, kann die KI darauf nicht angemessen reagieren.

Beispiel: Versagen des Autopiloten

Ein Tesla im Autopilot-Modus konnte einen weißen Anhänger nicht vom hellen Himmel unterscheiden und fuhr ungebremst darauf zu – mit einem Unfall als Folge. Das System war auf diesen speziellen Fall (weißes Objekt vor hellem Hintergrund) nicht ausreichend trainiert worden.

Voreingenommenheit (Bias)

Bias (Voreingenommenheit) entsteht, wenn die Trainingsdaten eines KI-Systems systematisch verzerrt sind. Da die Trainingsdaten häufig von Menschen stammen (z.B. aus dem Internet), können menschliche Vorurteile in das KI-System übertragen werden.

Beispiel: Bewerbungssystem mit Bias

Ein automatisiertes Bewerbungssystem eines großen Technologieunternehmens benachteiligte Frauen systematisch. Der Grund: Die Trainingsdaten enthielten überwiegend erfolgreiche Bewerbungen von Männern, weil in der Vergangenheit mehr Männer in technischen Berufen arbeiteten. Die KI übernahm dieses Muster als „Erfolgsrezept“ – obwohl es auf Diskriminierung beruhte.

Lösung: Bessere, ausgewogenere Trainingsdaten verwenden und bestimmte diskriminierende Merkmale (z.B. Geschlecht) aktiv ausschliessen.

Dies ist nur ein kurzer Auszug. Die vollständige Lektion mit interaktiven Übungen und Lernfortschritts-Tracking gibt es nach Einlösung eines Einschreibeschlüssels.