Chat CPT ist eine Software, die auch heute schon Erstaunliches leistet, was vor wenigen Jahren kaum jemand geglaubt hätte. Doch es ist leider nur eine Textkopiermaschine, die auf eine möglichst hohe Trefferwahrscheinlichkeit optimiert wurde. Dieses System ist nicht darauf ausgelegt, die gestellten Fragen zu verstehen und aus dem Verständnis heraus eine Antwort zu finden. Das ist vermutlich der gravierendste Unterschied zu Alexa, Siri und Kolleginnen.
Einen Nachweis dafür erbrachte
Prof. Weitz aus Hamburg mit der Frage:
"Kannst Du mir das Produkt von 2 792 478 und 4 107 069 sagen?"
Antwort: "Das Produkt von 2 792 478 und 4 107 069 ist 11 518 659 440 462."
2792478 * 4107069 = 11518659440462 ist aber falsch!
Jedes System, das die Frage wirklich verstehen würde, die hätte erkannt, dass hier etwas gerechnet werden muss und hätte die Hardware, auf der sie gerade implementiert ist, dazu genutzt, das Ergebnis ohne jegliche Rundungsfehler zu ermitteln.
Möglicherweise war das Wort "Produkt" in verschiedenen Kontexten des Trainingsmaterials enthalten, zum Beispiel wenn es um "Produkt aus China" geht. Unter Umständen war eben in diesem Kontext etwas von 11518659440462 zu lesen - eventuell ist das nur eine Seriennummer? Woher kann eine Textkopiermaschine wissen, dass ein Produkt in diesem Falle etwas ganz ganz anderes sein müsste?
Vorerst kann dieses System allenfalls dazu eingesetzt werden, schöpferisch tätigen Menschen verschiedene Inspirationen zu liefern. Eine Validierung der Ergebnisse durch einen echten Menschen mit echter Intelligenz erscheint mir Stand heute unerlässlich.
Eine Anwendung erscheint mir allerdings heute schon möglich. Wir wissen, dass es zahlreiche Menschen gibt, die einsam sind. Zum Teil sind Verwandte verstorben, zum Teil leben sie in Altenheimen. In manchen Fällen kommt noch eine Demenz in unterschiedlich starker Ausprägung hinzu. Solchen Personen könnte natürlich ein humanoid aussehender Roboter zur Seite gestellt werden, der sich als hervorragender, geduldiger Gesprächspartner eignen würde. Bei diesem Einsatzzweck von Chat CPT wäre es noch nicht einmal so tragisch, wenn das Gerät hin und wieder mal flunkert.
Pfiffikus,
der nicht weiß, ob so ein Roboter, der es mit der Wahrheit nicht immer so genau nimmt, tatsächlich ein CE-Zeichen bekommen könnte