@gisiger ne. Sorry. Auch bei den kleinen Lücken ist das immer noch ein Noise-Generator. Solange du nicht zweifelsfrei feststellen kannst ob das Generierte einwandfrei ist, kannste das nicht benutzen. OK es geht auch falls der Wahrheitsgehalt vom Output völlig unwichtig ist.
@claudius Sorry, aber das ist ein Nicht-Argument, denn das gilt für jede Form der Information, egal, ob sie von einer „KI“ kommt oder von einem Menschen. Du nutzt also ausschliesslich Informationen, deren Inhalt du selber zu 100 Prozent verifiziert hast, und sobald dies nicht der Fall ist, verwirfst du sie? Wie lernst du dann? Als solitäres Individuum in einem Vakuum?
@gisiger
Nein, ich nutze überwiegend und wenn irgendwie möglich Quellen, die sich langfristig als zuverlässig heraus gestellt haben. Quellen, bei denen es idealerweise eine eingebaute Qualitätskontrolle gibt. Quellen, die nachvollziehbar sind und die mir und Dir das Gleiche geben, wenn wir nach dem Gleichen fragen, so dass man später bei (immer noch möglichen) Fehlern zumindest nachvollziehen kann wie sie zustande kamen. Alles das ist bei LLMs nicht der Fall.
@claudius@gisiger Nee, echt nicht. Gerade nicht bei kleinen Lücken. Wenn man gar keine Ahnung hat, kann man die Dinger benutzen, um rauszufinden, nach welchen Stichwörtern man suchen muss. Wenn man diffuse Infos hat, kann man mit LLMs manchmal Sachen (wieder-)finden, die man ohne nicht gefunden hätte. Aber als Informationsquelle (im Gegensatz zu Verweismaschine) sind sie absolut indiskutabel, zweifellos gefährlich.