Want to create interactive content? It’s easy in Genially!

Get started free

KI-ProNe: KI-Chaos - Das EEG zum Thema KI

Julia Thurner

Created on April 28, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Mind Map: The 4 Pillars of Success

Big Data: The Data That Drives the World

Momentum: Onboarding Presentation

Urban Illustrated Presentation

3D Corporate Reporting

Discover Your AI Assistant

Vision Board

Transcript

Zurück

Willkommen beim Escape Game KI-Chaos!
Im Online-Kurs hast du schon viel über KI gelernt. Dein Wissen ist jetzt hier gefragt!
  • Sammle Informationen und löse Aufgaben, um insgesamt drei Räume / Level zu absolvieren.
  • Du darfst dir gerne auf einem Blatt Papier neben dem Spiel Notizen machen.
  • Wenn du eine Aufgabe / eine Frage beantwortest hast, erscheint oft ein Text, in dem wichtige Hinweise stehen. Bitte klicke die Frage nicht so schnell weg!
  • Bitte nutze nicht den Zurück-Button im Browser, sondern nur die Buttons und Türen im Spiel.
  • Es gibt ab und zu Geräusche und Hinweistöne. Spiele das Spiel am besten mit Kopfhörer.
  • Wenn du bei einer Aufgabe einen Hinweis brauchst, nutze das Handy in der linken unteren Ecke!

Spiel beginnen

KI-Chaos

Kannst du die Klassenzimmer-Krise klären?

Start

Das Educational Escape Game rund um das Thema "Künstliche Intelligenz"
Ja, da wäre jemand fast eingeschlafen! Und das, obwohl der Nachmittagsunterricht in der Berufsschule gleich beginnt!

Weiter

Zurück

Weiter

Wer ich bin? Hast du das etwa schon wieder vergessen? Ich bin deine künstliche Intelligenz, deine KI, die dich bei deinem Schulalltag begleitet!

Zurück

Weiter

Ich analysiere dich, dein Lernverhalten und dein Wissen und mache dir Vorschläge, wie du zum Beispiel besser diese ganzen Fachwörter auf Englisch lernen kannst. Cool, oder?

Zurück

Weiter

Ich bin aber nicht dein einziges KI-Helferlein in der Schule! Hier auf deinem Tisch gibt es noch ein paar andere Sachen! Schau sie dir doch einfach mal etwas genauer an!

Weiter

Ist KI wirklich so "intelligent"?
Klick!

Weiter

Faszinierend, was es im Jahr 2031 nicht alles gibt, oder? Jetzt beginnt... auch... ... gleich...

Zurück

Weiter

krrr.... krrrr.... KRRRRRRR....

Zurück

Weiter

MELDUNG AN ALLE KI-GERÄTE! STÖRUNG ERKANNT! ES WIRD VERSUCHT, DIE SCHULDATEN ZU LÖSCHEN!

Zurück

Weiter

ERFOLGREICHE LÖSCHUNG IN WENIGEN MINUTEN! DER VORGANG KANN IM KI-RAUM DER SCHULE ABGEBROCHEN WERDEN!

Zurück

Weiter

Oh nein! Hast du das gehört? Die Schuldaten sollen gelöscht werden! Dann kann ich dir nicht mehr helfen! Dabei habe ich aktuell so viele und gute Daten zu dir und deinem Lernverhalten!

Zurück

Weiter

Die sind dann alle weg! Das müssen wir verhindern! Sonst sehe ich schwarz für alle Tests dieses Jahr! Wir müssen in den KI-Raum! Los geht's, lass uns das KI-System der Schule retten!

05. Mai 2031

Wenn du einen Hinweis brauchst, kannst du mich jederzeit anklicken!

Zurück ins Klassenzimmer

In den Schulflur

12345

Tür-Code:

8131

OFFEN

FALSCH

Super! Jetzt können wir raus aus dem Klassenzimmer!

Erkenne

die

Muster!

KI-Raum

Klicke mich an, wenn du nicht mehr weiterkommst!

Zurück in den Schulflur

Zurück in den Schulflur

Code für Kamera-Deaktivierung:

Farben

In den KI-Raum

Wunderbar, jetzt sollte sich die Tür auch ohne die Bild-erkennung der Kamera öffnen lassen!

Zurück in den Schulflur

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Alles nur geklaut!
Passwort:
Der letzte Raum! Ich unterstütze dich, wenn du einen Hinweis brauchst!

Erkenne

die

Muster!

KI-Raum

Zurück in den Schulflur

Zurück in den KI-Raum

Weiter

Passwort

Super, du hast den KI-Computer entsperrt! Los, stoppen wir schnell den Löschvorgang!

Zurück in den KI-Raum

Diesen blauen Zettel hast du doch vorhin in der Abstellkammer gesehen...

Zurück in den KI-Raum

Zurück in den KI-Raum

Zurück in den KI-Raum

Zurück in den KI-Raum

Zurück in den KI-Raum

Zurück in den KI-Raum

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Alles nur geklaut!
Passwort:

Zurück in den KI-Raum

Weiter

Passwort

Super, du hast den KI-Computer entsperrt! Los, stoppen wir schnell den Löschvorgang!

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Die Löschung der Daten kann nur gestoppt werden, wenn die folgenden drei Sicherheitsstufen bewältigt werden. Bei einer falschen Antwort muss der Prozess von Neuem gestartet werden.

Fortfahren

Jetzt gibt es kein Zurück mehr!

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1: Was zeichnet eine schwache KI aus?

ERROR!

Bitte Prozess von vorne beginnen!

Das war nicht korrekt! Probiere es noch einmal!

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1: Was zeichnet eine schwache KI aus?

Sie sind in einem Bereich / bei einer Aufgabe sehr gut.

FALSCH

WAHR

1/5

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1: Was zeichnet eine schwache KI aus?

Sie hat durch Training mit vielen Daten gelernt.

FALSCH

WAHR

2/5

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1: Was zeichnet eine schwache KI aus?

Sie hat ein moralisches Bewusstsein und weiß, was richtig und falsch ist.

FALSCH

WAHR

3/5

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1: Was zeichnet eine schwache KI aus?

Sie kann ihr Wissen und ihre Erfahrungen von einer Aufgabe für eine andere selbstständig nutzen.

FALSCH

WAHR

4/5

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1: Was zeichnet eine schwache KI aus?

Sie kann lernen / sich optimieren.

FALSCH

WAHR

5/5

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 1:

ERFOLGREICH ABSOLVIERT!

Die erste Hürde ist gemeistert! Weiter so!

Fortfahren

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 2: Welche der drei bekanntesten Lernformen des maschinellen Lernens trifft zu?

überwachtes Lernen

Ein KI-Modell, das ein Computerspiel so lange spielt, bis es immer gegen den Menschen gewinnt, wurde hiermit trainiert:

unüberwachtes Lernen

bestärkendes Lernen

1/3

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 2: Welche der drei bekanntesten Lernformen des maschinellen Lernens trifft zu?

ERROR!

Bitte Prozess von vorne beginnen!

Das war nicht korrekt! Probiere es noch einmal!

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 2: Welche der drei bekanntesten Lernformen des maschinellen Lernens trifft zu?

überwachtes Lernen

Ein KI-Modell, das auf einem Foto Menschen, Tiere oder Autos unterscheiden kann, wurde hiermit trainiert:

unüberwachtes Lernen

bestärkendes Lernen

2/3

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 2: Welche der drei bekanntesten Lernformen des maschinellen Lernens trifft zu?

überwachtes Lernen

Ein KI-Modell, dass Personen nach ihrem Lernverhalten in Gruppen sortiert und Vermutungen anstellt, wie diese Personen am besten lernen sollen, wurde hiermit trainiert:

unüberwachtes Lernen

bestärkendes Lernen

3/3

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 2:

ERFOLGREICH ABSOLVIERT!

Nur noch eine Sicherheitsstufe! Wir haben es fast geschafft! Schnell weiter!

Fortfahren

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 3: Welche Vorteile, aber auch Risiken bringt KI mit sich?

motivierend

KI kann Aufgaben erledigen, die für Menschen sehr GEFÄHRLICH oder auch eintönig sind.

zeitsparend

Oh nein! Ein paar Daten sind schon nicht mehr lesbar! Schnell, beeile dich!

gefährlich

1/4

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 3: Welche Vorteile, aber auch Risiken bringt KI mit sich?

ERROR!

Bitte Prozess von vorne beginnen!

Das war nicht korrekt! Probiere es noch einmal!

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 3: Welche Vorteile, aber auch Risiken bringt KI mit sich?

realistischer

KI-Systeme können viele Aufgaben SCHNELLER als Menschen erledigen.

langsamer

schneller

2/4

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 3: Welche Vorteile, aber auch Risiken bringt KI mit sich?

Daten

Aber KI braucht sehr viele DATEN, um ein Modell gut zu trainieren. Doch irgendwo müssen diese ja herkommen...

Muster

Lernmethoden

3/4

Schuldaten werden gelöscht. KI-System wird deinstalliert.

Sicherheitsstufe 3: Welche Vorteile, aber auch Risiken bringt KI mit sich?

Datenschutz ist beim Einsatz von KI wichtig. Und man muss darauf achten, dass es nicht zu einer VERZERRU bzw. Ungleichgewicht in den Daten kommt. Das Ergebnis eines KI-Modells ist eben nur so gut, wie die Daten, die ich ihm zum Trainieren gebe...

Erklärbarkeit

Verzerrung

Überwachung

4/4

Löschvorgang abgebrochen. KI-System wird wiederhergestellt...

Sicherheitsstufe 3:

ERFOLGREICH ABSOLVIERT!

Du hast es geschafft!

zurück in denKI-Raum

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Du hast es geschafft! Die Daten werden jetzt wieder hergestellt!Ich bin ja so froh, denn damit ist dein Abschluss für dieses Schuljahr gesichert! :)
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Doch eine Frage bleibt...Wer hat denn das Ganze verursacht? Wer könnte etwas davon haben, wenn die Daten gelöscht und das KI-System deinstalliert wären...?
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Hmmmm..... ???
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Ähm... ähm... hier spricht der Direktor dieser Schule!
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Ich war schon lange auf der Suche nach jemanden, der in KI-Sachen mir mit Rat und Tat beiseite stehen kann...
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Herzlichen Glückwunsch!Du hast meinen Test bestanden! Ab heute bist du die persönliche KI-Beratung der Schule !
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Also das habe selbst ich nicht kommen sehen... wie konnte er das vor mir, dem KI-System, verheimlichen?
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Oh, aber jetzt beginnt gleich der Unterricht!Du kannst einfach so stolz auf dich sein, jetzt eine so wichtige Aufgabe zu haben!
Passwort:

Zurück

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Und wenn du mich und meine Fähigkeiten brauchst, unterstütze ich dich, wo ich kann!
Passwort:

Weiter

Löschvorgang abgebrochen. Daten werden wiederhergestellt.

Alles nur geklaut!
Schaffen wir gemeinsam eine tolle Zukunft mit KI!
Passwort:

KI-Chaos

Herzlichen Glückwunsch!

Weiter

Das Educational Escape Game rund um das Thema "Künstliche Intelligenz"

Reflexion

Im Nachgang zum Spiel gibt es jetzt ein paar Fragen, um die Inhalte zu KI noch einmal zu vertiefen.

Reflexion

Eine Künstliche Intelligenz (KI) ist ein von Menschen entwickeltes System, das Aufgaben ausführt, die normalerweise menschliches Denken erfordern, wie etwa Lernen, Problemlösen oder Entscheiden. Sie funktioniert, indem sie große Mengen an Daten analysiert und daraus Muster erkennt, um selbstständig Antworten oder Lösungen zu finden - und sich dabei auch optimieren kann. KI kommt heute in vielen Bereichen zum Einsatz, etwa in der Medizin zur Unterstützung bei Diagnosen, in der Industrie zur Optimierung von Produktionsprozessen oder im Verkehrswesen bei der Entwicklung autonom fahrender Fahrzeuge. Dabei wird oft zwischen schwacher und starker KI unterschieden.

Weiter

Reflexion

Reflexion

Schwache KI:
  • Entwickelt für eine spezifische Aufgabe (z. B. Sprachübersetzung, Bilderkennung)
  • Hat kein eigenes Bewusstsein oder Verständnis ihrer Tätigkeit
  • Arbeitet nur innerhalb der programmierten Grenzen
  • Lernt durch Datenmuster, kann aber nicht flexibel auf völlig neue Situationen reagieren
  • Beispiele: Sprachassistenzsysteme, Chatbots, Qualitätssicherung in der Produktion

Starke KI:
  • Verfügt über eine generelle Intelligenz, vergleichbar mit menschlichem Denken
  • Könnte eigenständig lernen, schlussfolgern und kreativ Probleme lösen, auch in unbekannten Situationen
  • Wäre in der Lage, Bewusstsein, Selbstwahrnehmung und Emotionen zu entwickeln
  • Könnte flexibel in vielen verschiedenen Bereichen arbeiten – ohne neue Programmierung
  • Gibt es bisher nur theoretisch!

Weiter

Reflexion

Maschinelles Lernen ist ein Teilbereich im Themenfeld KI. Dabei werden vor allem drei Trainingsprozesse häufig eingesetzt.

Reflexion

Überwachtes Lernen (supervised learning): Die KI lernt anhand von Beispieldaten, bei denen die richtigen Antworten (= Labels) bereits bekannt sind (z. B. Bilder mit der Beschriftung "Hund" oder "Katze"). Ziel ist es, aus den Beispielen Regeln abzuleiten, um neue Daten korrekt zu klassifizieren.

Weiter

Reflexion

Unüberwachtes Lernen (unsupervised learning): Die KI erhält Daten ohne vorgegebene Lösungen und versucht selbstständig, Muster, Gruppen oder Strukturen darin zu erkennen. Die KI erhält z. B. viele Bilder von Hunden und Katzen, aber ohne zu wissen, was auf den Bildern zu sehen ist. Sie versucht dann selbst, Ähnlichkeiten zu erkennen und die Bilder in Gruppen zu sortieren

Weiter

Reflexion

Bestärkendes Lernen (reinforcement learning):Die KI lernt durch Versuch und Irrtum, indem sie für richtige Entscheidungen Belohnungen erhält und dadurch Schritt für Schritt eine Strategie entwickelt, um ein Ziel optimal zu erreichen (z. B. beim Training von Robotern oder Spielen).

Weiter

Reflexion

Reflexion

Sind die Aussagen zu Herausforderungen zu KI wahr oder falsch?

Reflexion

Sind die Aussagen zu Herausforderungen zu KI wahr oder falsch?

Reflexion

Sind die Aussagen zu Herausforderungen zu KI wahr oder falsch?

Reflexion

Sind die Aussagen zu Herausforderungen zu KI wahr oder falsch?

Reflexion

Sind die Aussagen zu Herausforderungen zu KI wahr oder falsch?

Reflexion

  • KI macht nie Fehler.→ Falsch: KI kann Fehler machen, da sie auf unvollständigen, fehlerhaften oder verzerrten Trainingsdaten basiert und deren Muster nicht perfekt versteht.
  • KI ist immer neutral und gerecht.→ Falsch: KI kann Vorurteile und Ungerechtigkeiten übernehmen, wenn die Trainingsdaten selbst verzerrt oder nicht repräsentativ sind.
  • Der Einsatz von KI hat Auswirkungen auf den Datenschutz.→ Wahr: KI verarbeitet oft große Mengen personenbezogener Daten, was Fragen zu Datenschutz, Datensicherheit und rechtlichen Vorgaben aufwirft.
  • KI gehört immer der Person, die sie benutzt.→ Falsch: Vor allem bei generativer KI gehören diese Werke nicht automatisch den KI-Nutzenden - das Urheberrecht setzt grundsätzlich ein menschliches Schaffen voraus.
  • Eine KI kann nicht alleine entscheiden, was richtig oder falsch ist.→ Wahr: KI-Systeme folgen programmierten Regeln und Algorithmen, haben aber kein eigenes moralisches Verständnis oder ethisches Urteilsvermögen.

Weiter

Vielen Dank!

Du bist nun am Ende dieses Moduls angekommen. Wir hoffen, wir konnten dein Wissen zu KI auffrischen, ergänzen oder erweitern. Du kannst das Browserfenster nun schließen.

Kamera deaktiviert

Farben

Computer entsperrt

Passwort

Alles nur geklaut!

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Passwort:

Passwort

Code is 123

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Oder wenn KI selbst Bilder erstellen soll... Huch, ich glaube, ich habe soeben den linken Computer eingeschaltet...
Alles nur geklaut!
Bitte hört auf, die Ergebnisse des Clubs "Erkennt die Muster" ständig kaputt zu machen! Sie liefern wichtige Erkenntnisse zum unüberwachten Lernen! Mehr Infos zu dem Modell und den Gruppen gibt es bei unserem Club-Banner!

Passwort

Code is 123

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

Autonomes Fahren - Fahren, ohne dass ein Mensch steuert - wird tatsächlich auch durch eine schwache KI möglich! Die Kameras am Auto werden mit sehr vielen Bildern von Menschen, Ampeln, Schildern, etc. trainiert, um diese dann in unterschiedlichen Situationen zu erkennen und reagieren zu können.

Wenn ich so darüber nachdenke: Manchmal muss ich auf Webseiten bestimmte Gegenstände in kleinen Kästchen auswählen (wie Ampeln oder Fahrräder), bevor ich mich zum Beispiel anmelden kann. Ob das auch was damit zu tun hat...?

Passwort

Code is 123

Es scheint, als ob das KI-System alle Türen abgeschlossen hat. Es muss einen anderen Weg geben, die Tür zu öffnen.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.
Alles nur geklaut!

Passwort:

Passwort:

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Passwort

Code is 123

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich in den KI-Raum?

Wie deaktiviere ich die Kamera?

Was bedeuten die Symbole?

Welche Gegenstände hängen wie zusammen?

Mein Code ist falsch. Wo ist der Fehler?

Ich komme überhaupt nicht weiter.

Ich brauche die Lösung.

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich in den KI-Raum?

Wie deaktiviere ich die Kamera?

Was bedeuten die Symbole?

Welche Gegenstände hängen wie zusammen?

Mein Code ist falsch. Wo ist der Fehler?

Ich komme überhaupt nicht weiter.

Ich brauche die Lösung.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg
Alles nur geklaut!

Passwort:

Bitte hört auf, die Ergebnisse des Clubs "Erkennt die Muster" ständig kaputt zu machen! Sie liefern wichtige Erkenntnisse zum unüberwachten Lernen! Mehr Infos gibt es bei unserem Club-Banner!
Hä? Da passiert ja gar nix, wenn ich die Notiz zusammenfüge!
Kannst du nicht lesen?

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Passwort

Code is 123

Alles nur geklaut!

Passwort:

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

3 Arten des Maschinellen Lernens

Zusammenfassung: überwachtes Lernen

3 Arten des Maschinellen Lernens

Zusammenfassung: unüberwachtes Lernen

3 Arten des Maschinellen Lernens

Zusammenfassung: bestärkendes Lernen

unüberwachtes Lernen
bestärkendes Lernen
überwachtes Lernen

Passwort:

Passwort:

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich raus aus dem Klassenzimmer?

Wie finde ich den Code für die Tür?

Mein Code ist falsch. Wo ist der Fehler?

Ich komme überhaupt nicht weiter.

Ich brauche die Lösung.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Alles nur geklaut!

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box
Alles nur geklaut!

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Ich sollte an der großen Recheneinheit mal den linken Computer einschalten und schauen, welche Daten dort alles vorhanden sind.

Erkenne

die

Muster!

"Erkenne die Muster" – das ist der Name unseres Clubs, der sich mit unüberwachten Lernen beschäftigt. Dabei geben wir viele unbeschriftete Daten in ein Modell rein und lassen es Muster oder Ähnlichkeiten, etc. rausfinden. So bekomme ich immer tolle Videos vorgeschlagen oder neue Sachen, die ich mir online kaufen kann! In unserem Club haben wir auch so ein KI-Modell trainiert. Die Ergebnisse dazu wurden auf der Pinnwand veröffentlicht. Die ähnlichen Gruppen, die das Modell erkannt hat, sind farbig eingekreist. Einer Gruppe hat das Modell nur vier Gegenstände zugeordnet. Mir gefällt vor allem die Farbe der Umrandung, die diese Gruppe mit den vier Gegenständen hat 😊

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich mit der Taschenlampe hier für mehr Verständlichkeit sorgen kann...

No See
Decision clue
Darkness System
Black Box

Erklärbarkeit

3 Arten des Maschinellen Lernens

Zusammenfassung: überwachtes Lernen

3 Arten des Maschinellen Lernens

Zusammenfassung: unüberwachtes Lernen

3 Arten des Maschinellen Lernens

Zusammenfassung: bestärkendes Lernen

unüberwachtes Lernen
bestärkendes Lernen
überwachtes Lernen

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Passwort:

Passwort

Code is 123

Passwort

Code is 123

Automatisches Diktiergerät

Das Gerät nimmt alles auf, was die Lehrkraft sagt und schreibt es auf. Dafür wurden sehr viele Aufnahmen von verschiedenen Personen gemacht und somit die KI trainiert. Doch sobald zwei Personen gleichzeitig reden, kommt die KI durcheinander. Ist das Gerät dann wirklich so intelligent? Was ist "Intelligenz" überhaupt...?

Alles nur geklaut!

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Passwort

Code is 123

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Wie funktioniert KI?

Am Anfang braucht man sehr viele Daten. Damit kann man eine KI trainieren - Ich würde also sagen, KI-Systeme sind lernende Systeme. Denn sie können eine bestimmte Aufgabe sehr gut und schnell erledigen und haben die Fähigkeit, darin besser zu werden! Aber dennoch ist diese Art der KI schwach, denn sie kann nichts anderes als diese Aufgabe... Doch was ist dann eine starke KI...?

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich in den KI-Raum?

Wie deaktiviere ich die Kamera?

Was bedeuten die Symbole?

Welche Gegenstände hängen wie zusammen?

Mein Code ist falsch. Wo ist der Fehler?

Ich komme überhaupt nicht weiter.

Ich brauche die Lösung.

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Lernende Systeme, welche die Mög-lichkeit zur "Selbstoptimierung" haben
Nutzt neuronale Netze, um dank vieler "Schichten" komplexe Auf-gaben zu lösen.
Ein Programm lernt rein aus den Daten, wie es sich verhalten muss.
Welcher Begriff gehört zu welcher Beschreibung?
(Sortiere die rechten Begriffe zu den Beschreibungen.)

KI-System

Unvollständige Daten

Daten, die einen Bereich nicht vollständig darstellen

Bias (=Verzerrung)

Daten, die ein Thema nicht komplett repräsentieren

Die Qualität eines KI-Systems ist nur so gut, wie die Eingabedaten sind. Wird z.B. eine Kultur oder eine Menschengruppe nicht beachtet, kann das zu einer Verzerrung der Ergebnisse führen (= Bias). Das bringt viele ethische Probleme, zum Beispiel könnten Frauen beim Bewerbungsverfahren für einen Job gegenüber anderen Geschlechtern einen Nachteil haben. Oder wenn KI selbst Bilder erstellen soll... Huch, ich glaube, ich habe soeben den linken Computer eingeschaltet...

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg
Normal erkennt die Kamera in der Ecke die Gesichter und weiß genau, wer vor der Tür steht und wer rein darf. Dafür wurde jede Person der Schule fotografiert und mit Namen im System hinterlegt (= bekannte Daten). Das kann man sich wie eine Bildunterschrift, ein Label, vorstellen! Dann wird das Modell mit neuen Daten, also neuen Personen, getestet. Dieses überwachte Lernen ist viel Arbeit, denn die Daten müssen sehr gut aufbereitet sein… Ich bin da leider nicht im System registriert... aber vielleicht kann man die Kamera ja deaktivieren?

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich an das Passwort?

Wie komme ich an die Reihenfolge der Buchstaben?

Wo finde ich die vier Buchstaben?

Ich komme überhaupt nicht weiter.

Buchstabe 2

Buchstabe 1

Buchstabe 3

Buchstabe 4

Ich brauche die Lösung.

Passwort:

Alles nur geklaut!

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Ich spiele nicht mehr Schach gegen die KI - denn die gewinnt die ganze Zeit, das macht keinen Spaß mehr... Aber auch kein Wunder, die KI berechnet alle Züge und hat in

kurzer Zeit schon Milliarden Spiele gegen sich selbst gespielt. Das ist schon cool, dass KI so schnell so komplexe Aufgaben lösen kann. Aber dieser Algorithmus kann halt jetzt nur Schach spielen...

Wie kann ich helfen?

Gehe mit dem Mauszeiger über die erste Hilfestellung und dir wird ein Hinweis angezeigt. Hilft dir der Hinweis nicht weiter, klicke einmal auf die Hilfestellung und der nächste Schritt wird dir angezeigt.

Ich weiß nicht, was ich überhaupt tun muss.

Wie komme ich raus aus dem Klassenzimmer?

Wie finde ich den Code für die Tür?

Mein Code ist falsch. Wo ist der Fehler?

Ich komme überhaupt nicht weiter.

Ich brauche die Lösung.

Das sind meine KI-Geräte: mein Stift und mein Aufnahmegerät. Die beiden haben eine schwache KI drin, weil sie können nur eine bestimmte Aufgabe sehr gut, aber sie können auch „dazulernen“. Mein Stift konnte am Anfang zum Beispiel mein „e“ nicht lesen, weil ich das nicht ordentlich schreibe. Nachdem der Stift mein „e“ aber oft „gesehen“ hat, klappt das immer besser!

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich finde, was für mehr Verständlichkeit sorgen kann...

Erklärbarkeit

No See
Decision clue
Darkness System
Black Box

Genau - man braucht viele Daten, die gut aufbereitet sind, bevor KI überhaupt genutzt oder angewendet werden kann!

= 8
Computer
Was ist die Grundlage von künstlicher Intelligenz?
Roboter
Daten
Algorithmen
Früher gab es an unserer Schule Spiel-Wettbewerbe – jetzt leider nicht mehr. Denn die KI gewinnt immer. Klar, die wurde nach dem Prinzip der ________________ trainiert. Die KI befindet sich dabei in einem bestimmten Zustand (wie einer Spielsituation), ______________ dann mit der Umgebung und probiert verschiedene Strategien aus. Dann wird das Ergebnis bewertet – war das gut oder schlecht, was sie gemacht hat? Das nennt man das _______________ Lernen, eine weitere Form des maschinellen Lernens. Und das Ganze passiert in einer atemberaubenden Geschwindigkeit – da können wir Menschen nicht mithalten. Deshalb verstaubt jetzt der Schulpokal in der Abstellkammer…
Reaktion
Belohnung
Unterstützung
Belohnung
spielt
interagiert
interagiert
bestärkende
funktioniert
überwachte
unüberwachte
bestärkende
Alles nur geklaut!

Passwort

Code is 123

Passwort:

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Erkenne

die

Muster!

"Erkenne die Muster" – das ist der Name unseres Clubs, der sich mit unüberwachten Lernen beschäftigt. Dabei geben wir viele unbeschriftete Daten in ein Modell rein und lassen es Muster oder Ähnlichkeiten, etc. rausfinden. So bekomme ich immer tolle Videos vorgeschlagen oder neue Sachen, die ich mir online kaufen kann! In unserem Club haben wir auch so ein KI-Modell trainiert. Die Ergebnisse dazu wurden auf der Pinnwand veröffentlicht. Die ähnlichen Gruppen, die das Modell erkannt hat, sind farbig eingekreist. Einer Gruppe hat das Modell nur vier Gegenstände zugeordnet. Mir gefällt vor allem die Farbe der Umrandung, die diese Gruppe mit den vier Gegenständen hat 😊

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg
Alles nur geklaut!

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg

Egal ob ich online einkaufe oder mir auf Instagram Videos anschaue - der Algorithmus analysiert mein Verhalten und schlägt mir automatisch interessante Sachen vor!

Dabei funktioniert ein Algorithmus wie ein Kochrezept! Er arbeitet einfach festgelegte Schritte ab: 1) Ich schaue Videos an, like sie, schicke sie meinen Freunden, schreibe einen Kommentar, ... 2) Der Algorithmus nimmt alle Daten und vergleicht das Video, die Hashtags, ... mit anderen Videos. 3) Ich bekomme Videos zu sehen, die ich mag! :)

Passwort

Code is 123

Wieso will eigentlich jemand die Daten löschen? Hmm... vielleicht war die Person mit einer Entscheidung des KI-Systems unzufrieden. Man weiß ja nicht, wie das KI-System zu einer Entscheidung gekommen ist. Dieses Phänomen nennt man auch...

KI-Modelle haben oft das Black-Box-Phänomen - wie eine schwarze Box, in die man nicht reinschauen kann. Doch etwas kann helfen, Licht in die Black Box zu bringen! Mal schauen, ob ich mit der Taschenlampe hier für mehr Verständlichkeit sorgen kann...

No See
Decision clue
Darkness System
Black Box

Erklärbarkeit

Künstliche Intelligenz auf dem Holzweg: Wenn Algorithmen am Husky scheitern

Ein jüngstes Experiment deckt die Schwächen maschinellen Lernens auf, als ein System, das mit Hunderten von Hunde- und Wolfsfotos trainiert wurde, an einem Husky-Foto scheiterte. Obwohl es kontinuierlich Feedback erhielt und seine Erkennungsfähigkeit verbesserte, blieb die Entscheidungsfindung undurchsichtig, ein bekanntes "Black-Box"-Phänomen im maschinellen Lernen. Die Analyse zeigte, dass das System nicht die Tiere direkt verglich, sondern die Umgebung als Entscheidungskriterium heranzog.

Da es ausschließlich mit Wolfsbildern im Schnee trainiert wurde, führte dies zu einer irreführenden Schlussfolgerung: Schnee = Wolf, kein Schnee = Hund. Dieses Beispiel wirft ernsthafte Fragen zur Integration von KI in sicherheitsrelevante Systeme, insbesondere in autonomen Fahrzeugen, auf.

Deshalb ist Erklärbarkeit bei KI so wichtig!
Künstliche Intelligenz auf dem Holzweg
Alles nur geklaut!