Mir fällt oftmals eine sehr düstere Sicht auf die Welt auf von verschiedenster Seite. Der Eröffnungspost scheint mir in die Richtung zu gehen. Die Neigung dazu habe/hatte ich selbst ganz stark, aber der möchte ich nicht immer nachgehen.
Mal ein paar Gedanken dazu.
Schlechte Zuverlässigkeit
Das System hat grundsätzlich Zuverlässigkeitsprobleme. D. h. wenn man ein Ergebnis bekommt, dann weiss man nicht, wie gut das Ergebnis ist. Es ist durchaus mit einer gewissen Wahrscheinlichkeit auch totaler Müll, auch wenn es im Gewand von Ernsthaftigkeit serviert wird. Also vielleicht so wie das, was Trump von sich gab? Clean Coal? (War er ein ChatGPT-Bot?). Das System hat also überall dort sehr gute Chance eingesetzt zu werden, wo dass entweder nicht schlimm ist, oder wo eine menschliche Instanz dahinter ist, die das nochmal validiert.
Das bedeutet möglicherweise, dass deutlich Support günstiger werden könnte als bisher, weil man ja viel weniger Menschen dazu braucht. 80% der Fälle werden durch ChatGPT abgefrühstückt. Der Rest geht noch an menschliche Mitarbeiter:innen. Werden wir also in Zukunft deutlich weniger menschliche Interaktionspartner in unserer Kundenrolle haben? Vielleicht auch solche, die uns besser helfen können?
Das könnte möglicherweise eine weitere Automatisierungswelle einläuten, d. h. eine mögliche Vergrößerung des Arbeitslosenproblems.
Soweit ich das mitbekommen habe, verwendet Foxnews ein KI-System (wie dieses?) um Artikel zu generieren. Die haben das offen verkündet; vermutlich weil Autoren zu teuer sind. Auch ein anderes Magazin hat man vor kurzem dabei ertappt, dass die dass bei ca. 50 Artikeln getan haben, ohne das die das bekannt gegeben haben. D. h. man muß noch mehr damit rechnen, dass das, was man irgendwo liest, totaler Schrott ist.
Im kapitalistischen System würde ich sagen, dass Billig wichtiger ist als Gut oder gar Perfekt. Insofern vermute ich, dass hier große Veränderungen passieren werden, weil das System große Potentiale zu Kosteneinsparungen hat, die mit Sicherheit genutzt werden.
Außergewöhnliche verbesserte Erfassung des Sinnes von menschlicher Sprache
Das wirklich außergewöhnliche für mich ist, dass hier anscheinend deutlich umfassender ein "Programm" den Sinn der Sprache eines Menschen zu verstehen, als alles was ich bisher gesehen habe. Für mich ist das ein gewaltiger Fortschritt in der Mensch/Maschine-Interaktion. Das ist ja eine wesentliche Technologiekomponente aus Star Trek: "Computer: Ich suche folgendes Werk: Russischer Schriftsteller. Ungefähr 18. Jahrhundert. Er hat außergewöhnlich viele Bücher geschrieben."
Eine Suchmaschine und keine KI
Für mich ist das noch keine wirkliche KI, sondern eher eine Suchmaschine über alles digitalisierte Wissen, auf das es Zugriff hat. D. h. es kann Probleme nur dadurch lösen, dass es auf Vorhandenes zurück greift und dieses ggf. miteinander kombiniert. Das möchte ich nicht klein machen, denn oftmals ist ja Kreativität nur eine - vielleicht ungewöhnliche - Kombination von allem Möglichen Vorhandenen. Grundsätzlich erscheint mir das fantastisch: Eine so super effiziente Suchmaschine zu haben!
Programmierung und Systemadministration
Über das Thema ChatGPT und Programmierung / Systemadministration habe ich mitbekommen, dass das System durchaus kleinere Programme lauffähig hinbekommt. Z. B. ein Wordpress-Plugin hat sich jemand mal entwickeln lassen. Einen Sortieralgorithmus? Ein genau spezifiziertes Programm. Docker-Konfigurationen (Plain Docker und docker-compose). Die Programme waren hierbei sehr effizient und konnten - meine ich mich zu erinnern - sogar die Effizienz von vorhandenen Programmen deutlich verbessern.
Die Programme waren gut dokumentiert. D. h. man kann sich von so einem System weiterhelfen lassen. Wenn ich irgendwas nicht hinbekomme, dann lasse ich mir eine Beispiellösung liefern, versuche diese zu verstehen und bekomme damit eine Unterstützung bei einer Aufgabe. In der Programmierung bedeutet das nicht, dass man Code nicht mehr verstehen muss. Aber es könnte sein, dass sich manch einer drauf verlässt und dann vollkommen hilflos ist, wenn das System fehlerhaften Code liefert. Also nicht offensichtliche Fehler, die sofort dazu führen, dass der Code nicht funktioniert. Eher Fehler die versteckt sind und vielleicht nur selten auftreten. Das sind wir vielleicht viel mehr bei dem Spruch, den Fefe öfters raushaut: Ist ein Softwarefehler, können wir nix machen!
Es könnte durchaus sein, daß das System zur Unterstützung verwendet wird. D. h. dass die Programmierarbeit oftmals nur noch in Form von Anweisungen an den Bot durchgeführt wird. Infolge dessen steigt die Anzahl der Codezeilen pro "Programmierer" deutlich an und eine initiale "Programmierung" wird dadurch viel leichter. Ein Bugfixing oder die Fähigkeit zur Anpassung des Codes wird dadurch möglicherweise deutlich problematischer.
Es gibt vielleicht auch einfach Leute, denen alles egal ist und die sagen: Ja, wir programmieren Euch das für sooo günstig! Im Hintergrund frickeln die dann mit so etwas so lange rum, bis es geht.
Militärische Nutzung
Soweit es nur Waffen betrifft, ist die schlechte Zuverlässigkeit und Genauigkeit eher nicht das Problem. Wenn die Waffe mal nicht funktioniert, dann geht sie halt kaputt. Kein Problem, für den Einsatz in bestimmten, beschränkten Bereichen.
Die Frage wäre, was man militärisch überhaupt damit anfangen kann? Autonome Systeme, die im Gefechtsfeld operieren und jede Lage sehr intelligent erfassen und taktisch klug(Taktikdatenbank) darauf reagieren? Sensornetze, die sprechende gegnerische Soldaten durch entsprechend verteilte Sensoren grossflächig abhören und daraus wichtige taktische Informationen gewinnen?
Zum Thema: Verdummung
Die beginnt vielleicht erst, wenn das System deutlich besser wird.
Ansonsten könnte es sein, dass mit dem Spruch "Ich habe es irgendwo im Internet gelesen." jetzt noch viel mehr Unsinn entsteht.