Chat GPT die nächste Stufe zur Verdummung der Menschheit?

Thorsten

SSF Facilitymanagement
Staff member
Ich habe mir das Thema (rudimentär) angesehen und schon eine Meinung dazu: Ich glaube, Chat GPT wird im schlimmsten Fall alle Befürchtungen aus Terminator wahr werden lassen. Skynet lässt grüßen. Wir lassen zunehmend Maschinen an Dinge, an denen sie nichts zu suchen haben.

Habt ihr eine Meinung zum Thema? Würde mich mal interessieren.
 
Mir fällt oftmals eine sehr düstere Sicht auf die Welt auf von verschiedenster Seite. Der Eröffnungspost scheint mir in die Richtung zu gehen. Die Neigung dazu habe/hatte ich selbst ganz stark, aber der möchte ich nicht immer nachgehen.

Mal ein paar Gedanken dazu.

Schlechte Zuverlässigkeit

Das System hat grundsätzlich Zuverlässigkeitsprobleme. D. h. wenn man ein Ergebnis bekommt, dann weiss man nicht, wie gut das Ergebnis ist. Es ist durchaus mit einer gewissen Wahrscheinlichkeit auch totaler Müll, auch wenn es im Gewand von Ernsthaftigkeit serviert wird. Also vielleicht so wie das, was Trump von sich gab? Clean Coal? (War er ein ChatGPT-Bot?). Das System hat also überall dort sehr gute Chance eingesetzt zu werden, wo dass entweder nicht schlimm ist, oder wo eine menschliche Instanz dahinter ist, die das nochmal validiert.

Das bedeutet möglicherweise, dass deutlich Support günstiger werden könnte als bisher, weil man ja viel weniger Menschen dazu braucht. 80% der Fälle werden durch ChatGPT abgefrühstückt. Der Rest geht noch an menschliche Mitarbeiter:innen. Werden wir also in Zukunft deutlich weniger menschliche Interaktionspartner in unserer Kundenrolle haben? Vielleicht auch solche, die uns besser helfen können?

Das könnte möglicherweise eine weitere Automatisierungswelle einläuten, d. h. eine mögliche Vergrößerung des Arbeitslosenproblems.

Soweit ich das mitbekommen habe, verwendet Foxnews ein KI-System (wie dieses?) um Artikel zu generieren. Die haben das offen verkündet; vermutlich weil Autoren zu teuer sind. Auch ein anderes Magazin hat man vor kurzem dabei ertappt, dass die dass bei ca. 50 Artikeln getan haben, ohne das die das bekannt gegeben haben. D. h. man muß noch mehr damit rechnen, dass das, was man irgendwo liest, totaler Schrott ist.

Im kapitalistischen System würde ich sagen, dass Billig wichtiger ist als Gut oder gar Perfekt. Insofern vermute ich, dass hier große Veränderungen passieren werden, weil das System große Potentiale zu Kosteneinsparungen hat, die mit Sicherheit genutzt werden.

Außergewöhnliche verbesserte Erfassung des Sinnes von menschlicher Sprache

Das wirklich außergewöhnliche für mich ist, dass hier anscheinend deutlich umfassender ein "Programm" den Sinn der Sprache eines Menschen zu verstehen, als alles was ich bisher gesehen habe. Für mich ist das ein gewaltiger Fortschritt in der Mensch/Maschine-Interaktion. Das ist ja eine wesentliche Technologiekomponente aus Star Trek: "Computer: Ich suche folgendes Werk: Russischer Schriftsteller. Ungefähr 18. Jahrhundert. Er hat außergewöhnlich viele Bücher geschrieben."

Eine Suchmaschine und keine KI

Für mich ist das noch keine wirkliche KI, sondern eher eine Suchmaschine über alles digitalisierte Wissen, auf das es Zugriff hat. D. h. es kann Probleme nur dadurch lösen, dass es auf Vorhandenes zurück greift und dieses ggf. miteinander kombiniert. Das möchte ich nicht klein machen, denn oftmals ist ja Kreativität nur eine - vielleicht ungewöhnliche - Kombination von allem Möglichen Vorhandenen. Grundsätzlich erscheint mir das fantastisch: Eine so super effiziente Suchmaschine zu haben!

Programmierung und Systemadministration

Über das Thema ChatGPT und Programmierung / Systemadministration habe ich mitbekommen, dass das System durchaus kleinere Programme lauffähig hinbekommt. Z. B. ein Wordpress-Plugin hat sich jemand mal entwickeln lassen. Einen Sortieralgorithmus? Ein genau spezifiziertes Programm. Docker-Konfigurationen (Plain Docker und docker-compose). Die Programme waren hierbei sehr effizient und konnten - meine ich mich zu erinnern - sogar die Effizienz von vorhandenen Programmen deutlich verbessern.

Die Programme waren gut dokumentiert. D. h. man kann sich von so einem System weiterhelfen lassen. Wenn ich irgendwas nicht hinbekomme, dann lasse ich mir eine Beispiellösung liefern, versuche diese zu verstehen und bekomme damit eine Unterstützung bei einer Aufgabe. In der Programmierung bedeutet das nicht, dass man Code nicht mehr verstehen muss. Aber es könnte sein, dass sich manch einer drauf verlässt und dann vollkommen hilflos ist, wenn das System fehlerhaften Code liefert. Also nicht offensichtliche Fehler, die sofort dazu führen, dass der Code nicht funktioniert. Eher Fehler die versteckt sind und vielleicht nur selten auftreten. Das sind wir vielleicht viel mehr bei dem Spruch, den Fefe öfters raushaut: Ist ein Softwarefehler, können wir nix machen!

Es könnte durchaus sein, daß das System zur Unterstützung verwendet wird. D. h. dass die Programmierarbeit oftmals nur noch in Form von Anweisungen an den Bot durchgeführt wird. Infolge dessen steigt die Anzahl der Codezeilen pro "Programmierer" deutlich an und eine initiale "Programmierung" wird dadurch viel leichter. Ein Bugfixing oder die Fähigkeit zur Anpassung des Codes wird dadurch möglicherweise deutlich problematischer.

Es gibt vielleicht auch einfach Leute, denen alles egal ist und die sagen: Ja, wir programmieren Euch das für sooo günstig! Im Hintergrund frickeln die dann mit so etwas so lange rum, bis es geht.

Militärische Nutzung

Soweit es nur Waffen betrifft, ist die schlechte Zuverlässigkeit und Genauigkeit eher nicht das Problem. Wenn die Waffe mal nicht funktioniert, dann geht sie halt kaputt. Kein Problem, für den Einsatz in bestimmten, beschränkten Bereichen.

Die Frage wäre, was man militärisch überhaupt damit anfangen kann? Autonome Systeme, die im Gefechtsfeld operieren und jede Lage sehr intelligent erfassen und taktisch klug(Taktikdatenbank) darauf reagieren? Sensornetze, die sprechende gegnerische Soldaten durch entsprechend verteilte Sensoren grossflächig abhören und daraus wichtige taktische Informationen gewinnen?

Zum Thema: Verdummung

Die beginnt vielleicht erst, wenn das System deutlich besser wird.

Ansonsten könnte es sein, dass mit dem Spruch "Ich habe es irgendwo im Internet gelesen." jetzt noch viel mehr Unsinn entsteht.
 
Last edited:
@Thorsten , nur falls du eine (und auch meine) philosophische Heimat suchst: Wird mal einen Blick auf den Akzelerationismus. In deinem (wie auch in meinem) Falle in der apokalyptischen Ausprägung.
Ich glaube zwar nicht dass ChatGPT auch nur ansatzweise ausgereift genug ist oder in absehbarer Zeit sein wird, um die Zivilisation in den Abgrund zu stürzen, aber ich denke dass es doch einen großen Schritt in Richting der sog technischen Singularität darstellt, diese bezeichnet den Punkt an dem Technologie für die Menschheit nicht mehr beherrschbar ist und diese dann in letztendlicher Konsequenz den Menschen auch nicht mehr benötigen wird.

ChatGPT hat übrigens vor ein paar Tagen das United States Medical Licensing Exam und Bar Exam bestanden:
https://www.dailywire.com/news/chat...am-after-top-performance-on-wharton-mba-final
 
Chat CPT ist eine Software, die auch heute schon Erstaunliches leistet, was vor wenigen Jahren kaum jemand geglaubt hätte. Doch es ist leider nur eine Textkopiermaschine, die auf eine möglichst hohe Trefferwahrscheinlichkeit optimiert wurde. Dieses System ist nicht darauf ausgelegt, die gestellten Fragen zu verstehen und aus dem Verständnis heraus eine Antwort zu finden. Das ist vermutlich der gravierendste Unterschied zu Alexa, Siri und Kolleginnen.

Einen Nachweis dafür erbrachte Prof. Weitz aus Hamburg mit der Frage:
"Kannst Du mir das Produkt von 2 792 478 und 4 107 069 sagen?"
Antwort: "Das Produkt von 2 792 478 und 4 107 069 ist 11 518 659 440 462."
2792478 * 4107069 = 11518659440462 ist aber falsch!

Jedes System, das die Frage wirklich verstehen würde, die hätte erkannt, dass hier etwas gerechnet werden muss und hätte die Hardware, auf der sie gerade implementiert ist, dazu genutzt, das Ergebnis ohne jegliche Rundungsfehler zu ermitteln.
Möglicherweise war das Wort "Produkt" in verschiedenen Kontexten des Trainingsmaterials enthalten, zum Beispiel wenn es um "Produkt aus China" geht. Unter Umständen war eben in diesem Kontext etwas von 11518659440462 zu lesen - eventuell ist das nur eine Seriennummer? Woher kann eine Textkopiermaschine wissen, dass ein Produkt in diesem Falle etwas ganz ganz anderes sein müsste?


Vorerst kann dieses System allenfalls dazu eingesetzt werden, schöpferisch tätigen Menschen verschiedene Inspirationen zu liefern. Eine Validierung der Ergebnisse durch einen echten Menschen mit echter Intelligenz erscheint mir Stand heute unerlässlich.



Eine Anwendung erscheint mir allerdings heute schon möglich. Wir wissen, dass es zahlreiche Menschen gibt, die einsam sind. Zum Teil sind Verwandte verstorben, zum Teil leben sie in Altenheimen. In manchen Fällen kommt noch eine Demenz in unterschiedlich starker Ausprägung hinzu. Solchen Personen könnte natürlich ein humanoid aussehender Roboter zur Seite gestellt werden, der sich als hervorragender, geduldiger Gesprächspartner eignen würde. Bei diesem Einsatzzweck von Chat CPT wäre es noch nicht einmal so tragisch, wenn das Gerät hin und wieder mal flunkert.



Pfiffikus,
der nicht weiß, ob so ein Roboter, der es mit der Wahrheit nicht immer so genau nimmt, tatsächlich ein CE-Zeichen bekommen könnte
 
Kleine Ergänzung:
ChatGPT könnte den BlessU-2 ergänzen. Möglicherweise lässt sich damit die noch nicht vollständige Akzeptanz dieser Maschine ein wenig verbessern?


Pfiffikus,
der nicht in Erfahrung bringen konnte, ob es inzwischen schon ein Nachfolgemodell BlessU-3 oder höher gibt
 
Regelbasierte Lernmaschinen wie ChatGPT sind so dumm wie ihre Lehrer und das Lernmaterial, was oft fehlerhaft oder gar vorurteilsgewichtet ist.
Wie bei Menschen auch, nur schlimm das sowas "Künstliche Intelligenz" (Buzzwörter AI, KI) genannt wird, und deswegen suggeriert es könne denken und die Antwort/Information korrekt sein.

KI, das wird überbewertet. Wenn ein Militärroboter noch nicht mal Soldat:innen erkennen kann, wenn die im Karton getarnt sind, dann ist "KI" fehlerhaft und dumm.
 
Ich warte auf die "KI", welche sinnvolle Tests für Programme schreibt, und wirklich Fehler abdecken.
Ein Programm kann ja so eine KI zusammenstopseln, aber ob das dann wirklich läuft, aber üm ’ne Hausarbeit oder ein Diplom zu erschleichen reicht es ja wohl.

Ich sehe in so einer KI nur eine Gefahr, wenn Leute faul werden.
 
In den Bildungsinstitutionen wird gerade der Diskurs geführt, ob ChatGPT das Ende des Exposées oder der Hausarbeit ist. Ob man es verbieten, technisch sperren oder auf der anderen Seite gewinnbringend für die Ausbildung verwenden soll.

Da gibts sicher sehr viel dazu zu sagen. Momentan sehe ich das als "Werkzeug" an, wie die Menschheit schon viele Werkzeuge seit dem Stein-Faustkeil entwickelt hat. Erst einmal weder gut noch schlecht. Ob man damit Kunst schafft oder zerstört liegt immer noch in der "Hand" des Benutzenden.

Könnte damit in bestimmten Bereichen ein Effizienzgewinn erreicht werden? Vielleicht. Darf man auf die Ergebnisse blind vertrauen? Niemals. Für das Feld der IT werden solche Tools evtl Vorschläge machen oder bei kleinen Teilbereichen die lästige Programmier-Fleißarbeit abnehmen. Trotzdem braucht man weiterhin Programmierkenntnisse, denn man muss die Vorschläge weiterhin kontrollieren, einorden, verwerfen, umschreiben etc.
 
Ich probiere das gerade aus und das macht richtig Spass. Aber manche Informationen sind wirklich grottenfalsch.

Schreibe ein Programm in PHP, dass Datensätze sortiert. Jeder Datensatz enthält als erstes Element den Vornamen, als zweites Element den Nachnamen und als Drittes Element das Alter. Die Sortierung soll zuerst nach Nachname und dann nach Alter vorgenommen werden.

Code:
<?php

// Datensätze
$data = array(
    array("John", "Smith", 15),
    array("Jane", "Doe", 20),
    array("John", "Doe", 25),
);

// Vergleichsfunktion, um die Datensätze zu sortieren
function compare($a, $b)
{
    // Vergleich des Nachnamen
    $compare = strcmp($a[1], $b[1]);
 
    // Falls die Nachnamen gleich sind, wird das Alter verglichen
    if($compare == 0)
    {
        $compare = $a[2] - $b[2];
    }
 
    return $compare;
}

// Sortieren der Datensätze
usort($data, "compare");

// Ausgabe der sortierten Datensätze
foreach($data as $row)
{
    echo $row[0]." ".$row[1]." ist ".$row[2]." Jahre alt.\n";
}

?>

Schreibe ein Programm in Haskell, dass Datensätze sortiert. Jeder Datensatz enthält als erstes Element den Vornamen, als zweites Element den Nachnamen und als Drittes Element das Alter. Die Sortierung soll zuerst nach Nachname und dann nach Alter vorgenommen werden.

Code:
sortData :: [(String, String, Int)] -> [(String, String, Int)]
sortData xs = sortBy (compare `on` getName) (sortBy (compare `on` getAge) xs)
    where
        getName (fst, snd, _) = snd
        getAge (_, _, age) = age

Was sind die drei grössten Probleme über die Jean-Jaques Rosseau im Buch "Die Herrschaft des Volkes" berichtet?
(Bei jedem neuen Aufruf der Frage bekomme ich andere(evtl. nur anders formulierte) Antworten).

  1. Der Einfluss der Adligen und der Kirche: Rousseau argumentiert, dass die Adligen und die Kirche die Macht von den Menschen entwenden und die Regierungen korrumpieren.
  2. Die Unfähigkeit der Menschen, sich zu vereinen: Rousseau argumentiert, dass die Menschen zu egoistisch sind, um sich für die Allgemeinheit zu vereinen.
  3. Der Mangel an Gleichheit: Rousseau argumentiert, dass es zu wenig Gleichheit in der Gesellschaft gibt und dass es zu viele Unterschiede zwischen den Reichen und den Armen gibt.
Eine Anwendung ist da in der Tat die Suchmaschine, wo man sich dem gewünschten Wissen sehr schnell und sehr leicht annähern kann.

Beispiel:

1. Was sind aktuell die vielversprechendsten Stromspeichertechnologien?

<antwortliste>

2. Was ist der Wasserstoffspeicher mit der größten Kapazität?
3. Wie groß ist die Kapazität?
4. Wo steht er?
5. Wie heißt die Einrichtung?
6. Was sind die wichtigsten Quellen dazu?
7. Wer sind dazu die Experten?
...

Jetzt ich mich gezielt bei den tatsächlichen Informationen dazu informieren.

Das ist wie Star Trek.
 
Last edited:
Back
Top