Magellan schrieb:
GTP arbeitet mit Bedeutungsräumen für Wörter und deren Beziehungen und erschließt auch Kontext, hat also durchaus ein gewisses Verständnis für Sprache.
Klar das sind nur irgendwelche Datenpunkte die beim Training sortiert und verknüpft werden aber macht unser Hirn nicht letztlich das selbe?
Nein, nicht wirklich. Das System kann eben nicht wie jede andere Form von organischer Intelligent z.B. Bilder mit Text, Gerüchen, Begebenheiten, Zeiten, Gefühlen usw. verknüpft und so auch nie wirklich verstehen kann, was ein "Apfel" ist. Dafür bräuchte es halt deutlich mehr als nur die Bits und Bytes von texten oder Grafiken.
Erst durch die Verknüpfung von verschiedenen Systemen, die am Ende genau das reproduzieren, was wirklich in einem wie auch immer gearteten Gehirn passiert (also im mindesten: Bild, Ton, Geruch, Geschmack, Gefühl), ließe sich hier was erzeugen, dass nicht direkt wieder in das Chinese-Room Problem läuft.
Das Mario Beispiel von unten aus meiner letzten Aussage verdeutlicht recht gut, wieso das Ganze eben in jetziger Form immer ein Chinese-Room bleiben wird: das System kann dir eine Abhandlung über Mario schreiben oder es kann Mario spielen, es kann aber nicht beides und wird es, solang sich nicht massiv was ändert, auch nicht in nächster Zeit können.
Wobei ich ja mit dir gehe: wenn wir hier weiter abstrahieren und auf philosophischer Ebene fragen "ab wann ist reproduzieren von Eingaben intelligent" und man damit, wie von mir vorher beschrieben, den Maßstab verschiebt, dann lässt sich recht gut argumentieren, dass Systeme wirklich intelligent sind.
Damit verschiebt man aber fast immer auch die Frage nach Inputs/Outputs und die Erwartungen an diese, was auf höherer Abstraktionsebene sehr uneindeutig werden kann. Denn wenn du erwartest, dass das System auf immer mehr Input-Daten immer bessere Outputs liefert, dann lässt sich das eben am Ende nicht nur über Nachbildungen von neuronalen Prozessen machen, sondern auch über klassische Algorithmen. Sprich, die Blackbox die du untersuchst, wird ab einem bestimmten Punkt von Übereinstimmung der erwarteten Inputs/Outputs immer als intelligent gelten, egal was in ihr nun passiert... Oder: Chinese Room all-over again