tojo schrieb am 06.12.2024 02:47:
Wie schon geschrieben das war nur ein Gedankenspiel um aufzuzeigen wie zerstörerisch der Mensch ist.
Klar, selbstzerstörerisch kann der Mensch ganz gut.
Nicht nur auf planetarer Ebene, das geht schon innerhalb von Firmen los, wo Interessen von Mitarbeitern mit den Interessen der Organisation kollidieren können.
Aber KI ist halt ein blödes Beispiel.
Im Bezug auf KI gab es einen ganz guten Artikel in einem vorherigen Artikel:
KI: Wird die Entwicklung von Superintelligenz zum letzten Fehler der Menschheit? | heise online
https://heise.de/-10032002
Hm. Na ja.
Wenn der Mann sagt, deepl würde Übersetzungen in sehr guter Qualität erzeugen, dann muss ich dem aus meiner Zeit als professioneller Übersetzer doch deutlich widersprechen. Die Qualität sieht nur für den Nichtfachmann gut aus, weil die Formulierungen gefällig sind, aber als Übersetzer schaue ich auf die Präzision nicht nur bei den Ausagen, sondern ob die Übersetzung auch in möglichst der gleichen Weise unscharf ist wie der Originaltext (sonst "halluziniert" meine Übersetzung ja), und da sind die Automatenübersetzungen häufig richtig schlecht; es würde mich stark wundern, denn deepl das richtig hinkriegt.
Das ist jetzt keine Kritik am Mann. Er ist KI-Professor, kein Übersetzer, und hat nur nicht gemerkt, dass er da jenseits seines Kompetenzbereichs urteilt.
Aber es heißt, dass man seine Aussagen nicht unbesehen als korrekt übernehmen kann, man muss sie kritisch überprüfen, entweder aus eigener Fachkompetenz oder indem man eine Zweitmeinung einholt.
Oh. Hach. Demis Hassabis, Sam Altman und Bill Gates warnen, KI sei so gefährlich wie globale Pandemien oder Atomkriege.
Hassabis kenne ich nicht, aber Altman und Gates sind mir grad bei Zukunftsvorstellungen mit krassem Blödsinn aufgefallen. Das kann man getrost ignorieren.
Ist jetzt keine Kritik am Artikel oder an Bläsius, der Artikel stellt das ja nur für Bläsius zum Kommentieren hin und bewertet das selbst gar nicht.
Allerdings mag ich seine Antwort nicht besonders. Ich stimme ihm zu, dass generative KI allein nicht gefährlich ist, und er sagt, dass es aber in Kombination mit anderen KI-Ansätzen durchaus gefährlich werden könnte, was ich auch nicht ausschließen will, aber von einem KI-Fachmann hätte ich hier doch zumindest einen Hinweis erwartet, wie so eine Kombination überhaupt zusammenspielen könnte. Als Begründung, wie denn KI gefährlich werden könnte, taugt der Absatz nicht.
Weiter zitiert er die Prognose von Vernor Vinge, dass eine Superintelligenz binnen 30 Jahren erschaffbar sei, ohne sie einzuordnen.
Heute sehe ich, dass die Vorhersage von 1997 ist und es somit noch 3 Jahre Zeit ist, dass das wahr wird - ich denke, die können wir zu den Akten legen.
Ich finde das enttäuschend. Sowohl, dass sich Vinge als Informatiker(!) mit derartig spekulativen Prognosen aus dem Fenster hängt, als auch, dass Bläsius das nicht einordnet.
So sehr ich Vinge als SF-Autor schätze, als Informatiker war das eine klare Fehlleistung.
Und ich finde, Bläsius hätte das erwähnen sollen, so erweckt der Absatz falsche Vorstellungen.
Gut, Irren ist menschlich :-)
Wo Bläsius wirklich Recht hat: Bewusstsein und eigener Wille sind für die Frage, wie nützlich oder gefährlich KI werden könnte, völlig unerheblich.
Diese Aussage würde ich mir echt von mehr KI-Verfechtern wünschen, in der KI-Berichterstattung wird über diesen Aspekt schrecklich viel Mist geschrieben.
Weiter unten hängt Bläsius der verbreiteten Vorstellung an, dass aus einer generativen KI eine allgemeine KI werden könnte.
Auch hier wieder, ohne einen auch nur vage plausiblen Weg dorthin zu skizzieren.
Sorry, das ist mir zu dünn. Genausogut kann man sagen, dass das unmöglich ist, weil generative KI das nicht kann und sie ist nun mal schlecht mit anderer Software synergistisch kombinierbar; wie soll man entscheiden, welcher der beiden Standpunkte richtig ist, wenn Bläsius sich nicht dazu äußert, wie das möglich sein soll?
"Des Weiteren können Systeme wie ChatGPT auch sehr gut programmieren" - das kommt mir völlig falsch vor.
Ich halte mich da lieber an Jason Thor Hall. Der hat sich mal unter Entwicklerkollegen umgetan, und die sagen sinngemäß, ChatGPT generiert ihnen in einer Viertelstunde Code, für den sie drei Stunden schreiben müssten, aber danach brauchen sie sechs Stunden fürs Korrigieren und Debuggen.
Mit anderen Worten, die können eben nicht gut programmieren. Der Code läuft, tut aber nicht, was er soll, ist unzuverlässig.
Dass KI gut hacken kann, ist allerdings richtig.
Heute gehen Hacker recht probabilistisch vor, d.h. die verwenden genau solchen Code, der in 60% der Fälle funktioniert, und streuen das einfach, weil da immer noch genügend Rücklauf für ihre Zwecke kommt.
Wobei das nur für die Massenhacker gilt. Derart ungenaue Angriffe fallen auf, dafür gibt's "honey pots", die von Hackern angegriffen werden sollen, damit sie die Angriffssoftware identifizieren können; Geheimdienste und Hacker, die gezielt einzelne Opfer angreifen, wollen versteckt bleiben und können damit nicht arbeiten.
Für die Frage, ob KIs sich gegenseitig aus ihren Sandboxes befreien können, ist das dann auch nicht die richtige Antwort. Ja, KIs könnten das versuchen, aber das würde auffallen; die größere Gefahr ist eigentlich, dass Menschen dumme Ratschläge von KIs annehmen, da dürfte viel mehr dummes Zeug passieren.
Das letzte Drittel des Beitrags lasse ich jetzt ungelesen und unkommentiert, ich denke, das ist genug, um dir eine Vorstellung davon zu geben, in welcher Hinsicht man Bläsius vertrauen kann und in welcher nicht.
Jetzt fehlt natürlich jemand, der meine Ansichten gegenliest ;-)