Künstliche Intelligenz: Die digitale Exklusion vollzieht sich lautlos
- Künstliche Intelligenz: Die digitale Exklusion vollzieht sich lautlos
- No access – kein Zugang
- Auf einer Seite lesen
KI kommt scheinbar harmlos daher. Noch unterstützt sie den Menschen. Doch im Missbrauch ihrer Ergebnisse liegt die Gefahr für Medizin, Militär und Wirtschaft. Ein Essay.
In Sekundenschnelle ein paar niederschwellige Textkompilationen hier, ein paar bunte Präsentationen da. Kollisionsfrei durch riesige Lagerhallen und Warenhäuser flitzende KI-gesteuerte Roboter sowie KI-generierte Produktempfehlungen, wohin das Auge reicht.
Dazu vollautomatische Social-Media-Moderationen und allzeit bereite Chatbots, um zeitraubende Konsumentinnen und Konsumenten mit stets aufs Neue kompilierten Textkonserven in Endlosschleifen abzufertigen. KI als ultimatives Effizienzsteigerungsvehikel, mit klarer Tendenz zum Mainstream.
Unbeschränktheit der Anwendungen als Problem
Dass KI etwa im diagnostischen Bereich der Medizin oder in vielfältigen wirtschaftlichen Prozessen, wie etwa der Optimierung komplexer globaler Lieferketten, einen Quantensprung darstellt, ist unbestritten. Doch dabei bleibt es nicht. Die U.S. Air Force und andere führende Luftstreitkräfte erdenken und konzipieren KI-gesteuerte Kampf- und Aufklärungsjets nicht, sie testen diese bereits; fliegend an der Seite von menschlichen Kampfpiloten.
Die Reaktionsweisen der raketenbestückten KI-gesteuerten Jets, deren unerwartete plötzliche Wechsel in den Notfallsmodus und ähnliche kleinere und größere Fehler bzw. algorithmenspezifische Anomalien werden analysiert. In fünf bis zehn Jahren sollen die KI-Kampfjets voll einsatzfähig sein.
Als KI-Geschwader könnten diese dann beliebige Ziele oder Menschen mittels Zielprofilen selektieren, durch Sensordaten identifizieren, schließlich exekutieren, aus den gewonnenen Daten lernen und die Algorithmen verbessern, d. h. im laufenden Betrieb selbsttätig verändern.
Angesichts derartiger moralisch, politisch und kulturell völlig inakzeptabler, an die KI-Algorithmen outgesourcter Tötungsentscheidungen droht sich die Frage nach der Zuordenbarkeit von Verantwortung, insbesondere bei schweren Fehlern und Fehlentscheidungen, im unendlichen Geflecht digitaler Entscheidungsautonomie aufzulösen. Daran dürfte auch die geplante EU-Haftungsrichtlinie wenig ändern.
Wunschdenken und Faktizität
Dem sogenannten AI-Act, der KI-Verordnung der EU, mit ihrem Klassifikationsschema nach Risikoklassen der Anwendungszwecke, werden gegen Jahresende 2023 vermutlich sämtliche EU-Mitgliedsstaaten zustimmen. Dadurch tritt diese voraussichtlich 2026 EU-weit in Kraft.
Um in der Zwischenzeit wirtschaftspolitisch nicht inaktiv zu wirken, wird ein KI-Pakt vorangetrieben. Ein internationales Abkommen zwischen Staaten, supranationalen und nationalen Institutionen sowie einigen KI-Konzernen, um auf freiwilliger Basis ein Regelwerk für die kontrollierte Entwicklung von KI zu etablieren.
In diese Kerbe der freiwilligen Selbstverpflichtung schlagen auch die kürzlich von den G-7-Staaten verabschiedete Erklärung zum Verhaltenskodex sowie die wichtige Paris-Charta zu KI und Journalismus.
Doch aufgrund bereits weit vorangeschrittener Entwicklungen im militärischen Bereich und dem Absolutheitsanspruch des Rentabilitätsdenkens bei den Big Tech KI-Konzernen sowie deren massivem politisch-wirtschaftlichem Lobbying, bleiben die USA derzeit bei vagen Ideen, Entwürfen, Weißbüchern und Absichtserklärungen stehen.
Es existieren in den USA – von China ganz zu schweigen – zurzeit keinerlei konkrete Bestrebungen, zeitnah vergleichbare KI-Gesetze wie die KI-Verordnung der EU vorzubereiten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.