Eine der wichtigsten Fragen von heute ist, wie umfangreich Künstliche Intelligenz (KI) eingesetzt wird und welche Gefahren daraus entstehen können.
Eines der Anliegen der KI-Forschung ist denn auch, neue Wege der Interaktion zwischen Robotern, Software und Mensch zu finden.
Der Grundstein einer jeden Künstlichen Intelligenz ist bisher der Mensch. Dies ist auf den ersten Blick beruhigend. Spannend und mystisch wird es, wenn die Künstliche Intelligenz anfängt zu lernen und eigenständig Daten oder Bilder deutet. Ab einem gewissen Punkt ist der Menschen außen vor!
Die Entwickler der Künstlichen Intelligenz sollten zwar Ihren Programmiercode kennen, jedoch entwickelt sich die Software mit den eigenen Erfahrungen weiter. Vergleichbar mit einem Kind: Die Natur und Eltern geben dem Kind Wissen mit, aber Lernen und Rückschlüsse zieht der Jugendliche selbst.
KI-Entscheidungen lassen sich nur interpretieren
Dies auf die KI übertragen, ist noch eines der größten Herausforderungen. Entscheidungen von Computern zu verstehen und zu interpretieren, warum dieser in der Situation so gehandelt hat, ist ein eigener Zweig der KI-Forschung. Hier steht die Entwicklung sicherlich noch am Anfang.
Treten die ersten Rechtsfälle in Verbindung mit Künstlicher Intelligenz auf, dann wird es spannender denn je. Richter werden fragen, warum der Computer so handelte. Nach meinem heutigen Kenntnisstand kann man nur Antworten mit Annahmen und Wahrscheinlichkeiten präsentieren. Eine Herausforderung für jedes demokratisches Rechtssystem, wo es nur “ja” oder “nein” als Antwort gibt.
Wenn wir diese neuen Techniken und ihre Auswirkungen besser verstehen wollen, dann sollten wir zuerst die Lerndaten sichten. Zumeist verbirgt sich dort der Grundstein für Interpretationen oder Handlungen der Künstlichen Intelligenz.
Es gibt Fälle, wo der KI Rassismus vorgeworfen wird. Dies ist kompletter Unsinn. Entweder ist der Quellcode entsprechend verfasst oder die Basisdaten waren unzureichend. Werden dunkelhäutige Menschen als Affen angesehen, liegt es zumeist daran, dass in der Lernphase überwiegend hellhäutige Personen als Vorlage dienten. Waren dann noch Zoobesuche im Spiel und Affen wurden als solche markiert, dann ist das Ergebnis nicht verwunderlich.
Als Fazit kann man sagen: Die Künstliche Intelligenz ist nur so schlau wie die zur Verfügung gestellten Daten. Je mehr Lerndaten und Erfahrungen ein System hat, desto treffender werden die Entscheidungen.