Intelligence artificielle ou stupidité artificielle?

L'une des questions les plus importantes d'aujourd'hui est, l'étendue de l'intelligence artificielle (de) est utilisé et les dangers qui peuvent en découler.

L'une des préoccupations de la recherche en IA est alors, de nouveaux modes d'interaction entre robots, Trouver des logiciels et des personnes.

Jusqu'à présent, la pierre angulaire de toute intelligence artificielle a été l'homme. A première vue, c'est rassurant. Ce sera excitant et mystique, lorsque l'intelligence artificielle commence à apprendre et interprète indépendamment des données ou des images. À un certain moment, les gens sont laissés de côté!

Les développeurs d'intelligence artificielle doivent connaître votre code de programmation, jedoch entwickelt sich die Software mit den eigenen Erfahrungen weiter. Vergleichbar mit einem Kind: Die Natur und Eltern geben dem Kind Wissen mit, aber Lernen und Rückschlüsse zieht der Jugendliche selbst.

KI-Entscheidungen lassen sich nur interpretieren

Dies auf die KI übertragen, ist noch eines der größten Herausforderungen. Entscheidungen von Computern zu verstehen und zu interpretieren, warum dieser in der Situation so gehandelt hat, ist ein eigener Zweig der KI-Forschung. Hier steht die Entwicklung sicherlich noch am Anfang.

Treten die ersten Rechtsfälle in Verbindung mit Künstlicher Intelligenz auf, dann wird es spannender denn je. Richter werden fragen, warum der Computer so handelte. Nach meinem heutigen Kenntnisstand kann man nur Antworten mit Annahmen und Wahrscheinlichkeiten präsentieren. Eine Herausforderung für jedes demokratisches Rechtssystem, wo es nur “ja” ou “neinals Antwort gibt.

Wenn wir diese neuen Techniken und ihre Auswirkungen besser verstehen wollen, dann sollten wir zuerst die Lerndaten sichten. Zumeist verbirgt sich dort der Grundstein für Interpretationen oder Handlungen der Künstlichen Intelligenz.

Es gibt Fälle, wo der KI Rassismus vorgeworfen wird. Dies ist kompletter Unsinn. Entweder ist der Quellcode entsprechend verfasst oder die Basisdaten waren unzureichend. Werden dunkelhäutige Menschen als Affen angesehen, liegt es zumeist daran, dass in der Lernphase überwiegend hellhäutige Personen als Vorlage dienten. Waren dann noch Zoobesuche im Spiel und Affen wurden als solche markiert, dann ist das Ergebnis nicht verwunderlich.

Als Fazit kann man sagen: Die Künstliche Intelligenz ist nur so schlau wie die zur Verfügung gestellten Daten. Je mehr Lerndaten und Erfahrungen ein System hat, desto treffender werden die Entscheidungen.

Wenn Sie einen Schreibfehler im Text finden, bitte informieren Sie mich: markieren Sie die Textstelle und drücken Ctrl Enter.