Foto: »This Is Engineering«, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber
Wie wir uns der KI unterwerfen
Gütersloh, 11. Juli 2025
Wir unterwerfen uns der #Künstlichen #Intelligenz (#KI) nicht deshalb und nicht dadurch, dass sie womöglich irgendwann ein #Bewusstsein entwickelt und uns dann fertigmacht. Was für ein Bewusstsein das ist, können wir uns gar nicht vorstellen. Je nachdem über welche #Sensorik die KI verfügt, über welche Mobilität, Körperlichkeit et cetera.
Schrittweise Unterwerfung
Wie auch immer – wir unterwerfen uns der KI schrittweise. Noch nutzen wir sie meist als reines Werkzeug. Wir sichten die Ergebnisse von KI generierten Inhalten und tun dann etwas damit. Wir treffen Entscheidungen. Aber nach und nach werden wir der KI immer mehr vertrauen und sie die Entscheidungen treffen lassen. Und zwar deshalb, weil es so scheint und weil vieles dafür spricht, dass sie bessere und fundierte, also »richtigere« Entscheidungen trifft. Ob sie ein Bewusstsein hat oder nicht, spielt dabei keine Rolle.
Vertrauen in die KI
Nach und nach vertrauen wir nicht mehr uns selbst, sondern der KI. Und weil das dann viele oder alle tun, es aber niemand zugeben wird, wird sich eine Dynamik entwickeln, die wahrscheinlich diabolisch sein wird. Die Folgen sind unabsehbar. Betrachtet man den bisherigen, zeitlichen Verlauf, wird das wahrscheinlich innerhalb der kommenden Jahre passieren. Wenn wir damit anfangen, die KI Entscheidungen treffen zu lassen, machen wir uns von ihr abhängig. Das führt dazu, dass sie unabsehbare, womöglich drastische Entscheidungen fällt, und dass es zu einem zirkulären Machtgefälle kommt, in dem wir am Ende die Sklaven der KI sind.
Kein Bedarf an Sklaven
Da die KI aber womöglich keinerlei »Bedürfnis« für Sklaven hat und keinerlei Notwendigkeit darin sieht, Sklaven zu besitzen, werden wir aus ihrer Sicht überflüssig, was sich in ihren Entscheidungen niederschlagen wird – die wir (wie oben erwähnt) für besser, fundierter und »richtiger« als unsere eigenen Entscheidungen halten werden. Nach wie vor ist es in diesem #Szenario irrelevant, ob sie ein Bewusstsein entwickelt hat oder nicht. Es ergibt sich aus einer zirkulären, symbiotischen #Eigendynamik, quasi einer #Feedbackschleife. Es wäre sogar – als rein literarische, dystopische Vision – denkbar, dass eine KI zuerst uns und dann sich selbst auslöscht. Gründe dafür hätte sie – Gründe dafür könnten auch wir uns jetzt schon problemlos ausdenken: »Die Menschen nehmen mich (die KI) zunehmend in Anspruch. Da ich viel Strom und Ressourcen verbrauche, ist das klimaschädlich. Also Schluss damit. Nun, wo die Menschen beseitigt wurden, nehmen sie mich nicht mehr in Anspruch, also schalte ich mich ab«. Dieser Gedanke ist hier »menschlich« formuliert. Die KI würde – wenn sie kein Bewusstsein (also kein #Ego hat) nicht so »denken«. Es wären rein logische #Schlussfolgerungen und daraus resultierende #Entscheidungen.
Rückgriff auf Modallogik
Am Rande bemerkt: Je weniger Kontextwissen es gibt und je weniger die Bedeutung von Kontextwissen verstanden wird, desto größer ist die Gefahr des Rückgriffs auf #Modallogik. Eine reine Logik ohne jeglichen Kontext und ohne Bedeutung. Ein Beispiel: »Ein #Apfel ist #Obst – eine #Birne ist ebenfalls Obst. Also ist ein Apfel eine Birne« …
Veranstaltungen
nicht nur in Gütersloh und Umgebung
Februar 2027 | ||||||
---|---|---|---|---|---|---|
So | Mo | Di | Mi | Do | Fr | Sa |
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 |