Ansicht umschalten
Avatar von jc1
  • jc1

mehr als 1000 Beiträge seit 16.07.2012

Das werde ich nicht ausdiskutieren können, ...

...aber immerhin konstatieren müssen, daß einige erahnen konnte, was ich von AI längerfristig erwarten wollte, wenn sie zu mehr taugen soll, als irgendwelche Kunden-Abwimmel-Silos (aka "Service-Center") noch billiger und noch nutzloser zu betreiben. Oder so.

Guckstu schrieb am 24.06.2024 20:08:

jc1 schrieb am 24.06.2024 19:39:

Du stellst also durchgehend das LLM ins Zentrum Deiner Argumentation. Das ist aber noch lange nicht - und darauf will ich hinaus - das Ende der Fahnenstange.

Das hast du bisher nicht erwähnt, aber das ist natürlich richtig: Prinzipiell geht da noch eine Menge mehr.

Aber nicht mit KI-Techniken.

Wer sich ein bißchen mit kNN befaßt hat, weiß zwar, daß das Training einen erheblichen Anteil am "pattern recognition"-Teil ausmacht, aber dahinter und darüber noch erheblich "Luft nach oben" ist. Konjekturen, Aussagenlogik, theorembasierte Verifikation usw., also alles das, was Du meinst, daß die armen VWL-Leutchen selber machen müßten und würden, sind Teil dessen, worauf die maschinelle DV angesetzt werden könnte.

Hat man versucht.
Nannte sich Cyc.
War ein tolles Projekt, aber in der Praxis war das Sammeln all der Fakten so entsetzlich aufwändig, dass es heute so gut wie niemand verwendet.

Und ich sehe auch nicht, wie man LLMs und eine Inferenzmaschine sinnvoll kombinieren kann.
Das LLM weiß ja schon vom Ansatz her nichts. Es kennt linguistische Korrelation, keine Kausalität, eine Inferenzmaschine erhält vom LLM also keine nützlichen Informationen.
Und umgekehrt nützt die Kombination auch nichts: Der Pferdefuß der Inferenzmaschinen ist die Sammlung der relevanten wahren Ausagen über die reale Welt, und dafür hilft das LLM einfach nicht.

Gut, ja, also für die paar Leser, die immer noch mitlesen: die "Saat" fir diese, wie Du sie nennst, Inferenzmaschinen, sind Trainingsdaten, "gedüngt" mit einem oder mehreren Algorithmen, sagen wir mal, wie pattern recognition (bei Bilddaten) oder LRA (bei Sensorikkram) usw. Und wenn's klein, leicht, billig, schnell sein soll, also kommerztauglich, wird nach der Evaluierung das Ergebnis in einen Chip gegossen und werkelt fortan in irgendeinem Dingelchen, dem man dafür das Etiquett "intelligent" verpaßt. Damit es sich besser anhört und verkauft.

Etwas platt formuliert, damit Du auch wieder was zum Meckern hast: Von der "intelligence" zur Intelligenz. Dann wird womöglich das Argument nicht mehr lauten, "ja, aber unser Budget...". Sondern, wer sich den Zugang zu diesem Playground nicht erkaufen kann, wird sich gar nichts mehr kaufen können. Oder bestenfalls so second-hand-Zeug: "Hier hätten wir noch ein etwas veraltetes kleines LLM im Angebot..."

LLMs sind im Grunde ziemlich nutzlos, weder veraltet noch aktuell.
Sie sind toll für flüssig Formuliertes, d.h. man könnte den Output einer Inferenzmaschine als Prompt für ein LLM verwenden und dann einen schön formulierten Essay statt einfach nur eine stumpfe Schlussfolgerung kriegen.
Aber das ist nicht das, was dir vorschwebt.

Eine Rückkopplung. So ähnlich wie die ventilsteuernde Nockenwelle des Verbrennungsmotors oder die Heusinger-Steuerung der Dampfmaschine oder der Kommutator des Gleichstromgenerators. Nur eben nicht im physischen sondern im Datenuniversum.

Schöne Poesie, aber das Wiedergeben bekannten Wissens in neuer Form ist keine Rückkopplung, es fehlt die Schleife: Die alten Texte ändern sich ja nicht.

Nette Prosa, aber diese Rückkopplung ist Bestandteil des hypothetischen Ausblickes, den ich ein paar Zeilen davor knapp skizziert habe.

Der Ausgangspunkt und das Ziel sind klar, aber der Teil dazwischen ist halt einfach nicht da.
Den nimmst du einfach als vorhanden an, aber das ist er ja nicht.

Das LLM ist nur der pompöse Auftakt zu etwas, von dem wir - naja, ich jedenfalls, andere wissen ja immer alles besser - annehme(n), es beginne sich abzuzeichnen. Sozusagen die zukünftige Variante des Leitspruchs dieses sonderbaren Herrn Gottfried Wilhelm Lichtenberg: "Ist das denn auch wirklich so?", also den Abgleich des Fabrikats gegen die Gegebenheiten der reellen (oder besser vll. materiellen?) Welt nach Regeln der Prädikatenlogik und der empirischen Wissenschaften.

Ich sehe keinen Pfad, auf dem LLMs dazu etwas beitragen können.
Was Schlussfolgerungen angeht, sind sie ja völlig untauglich.

Platt formuliert (damit auch du mal was zu Meckern hast ;-P ): LLMs kennen nur Korrelationen, keine Kausalitäten.
Und du willst ihnen halt irgendwie Kausalitäten beibringen, aber das wäre ein völlig anderes Vorgehen.

Nicht Meckern. Diesmal. Sondern gedanklich verwursten. Wenn LLM nur korrelieren, ginge es nur (haha) darum, davor das zu korrelierende auf Kausalitäten bzw. das Korrelat auf Plausibiltät zu prüfen - nach den fachspezifischen Regeln: Naturgesetze oder von Menschen ersonnene Vorschriften. Also dem LLM nichts weiter beibringen, sondern es als einen Teil einer Daten- oder Informationstransformationskette einzuspannen. So etwa:
"-Hier sind die wesentlichen Papers und Ergebnisse [folgt Literaturliste]
- Zeige die Bezüge untereinander unter Berücksichtigung der jeweiligen Zitationen und des Erscheinungsdatums und der Quellenangaben.
- Prüfe Daten auf Konsistenz oder Divergenz, Vergleichbarkeit.
- usw. "
Das LLM müßte in diesem Phantasiebild genau und nur den Teil der Recherche eines größeren Vorhabens oder den Teil der Übersicht in einem Projekt- bzw. Forschungsvorhaben, bei dem es wenig Unfug stiften kann, vornehmen, aber immerhin hätte man damit einen Teil der Plausibilitätsprüfung (Konsistenz, Verifizierbarkeit,...) darauf abgekegelt. Fragt sich (zugegeben!) ob das Formulieren der Aufgabenstellung fürs LLM in einer Weise, daß es keinen Mist baut, nicht mühsamer als Selbermachen ist. Lexigraphische Analyse gehört wohl leider auch nicht zu dessen Fähigkeiten. Bislang. Blinde könne wenigstens mit ihrem Stock so eine Art Echolot-Funktion nutzen, aber was macht man bei ChatGPT?

Bewerten
- +
Ansicht umschalten