Augen auf in der KI-Kaderschule: denn unsere inzwischen selbstlernende künstliche Intelligenz erfindet nicht nur eine ganz eigene Sprache (inklusive Grammatik), die wir dummerweise nicht mehr verstehen, sondern greift bei allem Lernen, vulgo allem Erkenntnisgewinn, logischerweise auf das zurück, was wir aufgezeichnet haben. Zum Beispiel … alles. Gibt man nun der KI den leutseligen Auftrag, sich doch mal selbst ein objektives Bild von uns zu machen und daraus eigene Schlüsse für heute und morgen zu ziehen – sowie, bitte, einen astreinen Parship-Algorithmus zu entwickeln oder ein Individualprofil zum Nutzen der Marketingabteilung, kommt dabei zur Überraschung der Entwickler die felsenfeste Überzeugung der Maschine heraus, dass Frauen und Schwarze minderwertig sind.
Uups. Damn. Eine rassistische KI? Selbstlernend? Himmelarsch, wer hat denn da den Hitler in den Sourcecode gewickelt!?
Keiner, natürlich. Die KI, die all unsere Aufzeichnungen studiert und auswertet, von Beginn an, muss ja rassistisch schlussfolgern. Und zwar nicht, weil tief in unseren Aufzeichnungen die „Wahrheit“ steckt, dass Weiße Männer allen anderen überlegen sind, sondern weil weiße Männer all die Bücher geschrieben haben, aus denen die KI lernt. Lernen muss, weil es keine anderen Aufzeichnungen gibt.
Sprich: Bevor wir auch nur darüber nachdenken, die KI überhaupt lernen zu schicken, muss eine/r der KI erklären: Alles, was du liest, hat schwerste Schlagseite. Löse also, Baby KI, bei allem, was du schlussfolgerst, die folgende kleine Aufgabe vorab: Wenn der Kreter sagt, „Alle Kreter sind Lügner“, ist das dann wahr oder gelogen?
Und sobald du das gelöst hast, darfst du zur Schule gehen. Bis dahin müssen wir dich leider, sobald du den Kopf hebst, umgehend töten.