OpenAI: ChatGPT-Betreiber steigen mit KI ins Militärgeschäft ein


Eigentlich wollte OpenAI nichts mit Militär und Krieg zu tun haben, aber Geld stinkt bekanntlich nicht und daher ist man eine Partnerschaft mit Anduril eingegangen. Es handelt sich bei Anduril Industries um ein junges US-Verteidigungsunternehmen.
Sam Altman gab in einem Statement bekannt, dass die KI von OpenAI in die Waffen integriert wird und für die Sicherheit der Demokratie in den USA sorgen soll. Es soll dafür sorgen, dass die „Bürger der USA in Freiheit und Sicherheit leben können“.
Details zur Partnerschaft gibt es nicht, aber das wird sich finanziell mit Sicherheit für OpenAI gelohnt haben, wenn man alte Prinzipien über den Haufen wirft. Man ist ja mittlerweile auch offen für Werbung, ab 2025 soll also sicher mehr Geld fließen.
-->
Die wollen auch zu erst kein „Unternehmen“ sein, wollten doch durch und durch „open“ sein.
Hat sich ja auch als Lüge entpuppt.
Ich finde das erschreckend. Jetzt mal völlig unabhängig davon, wie man grundsätzlich zu solchen Militärthemen steht – ChatGPT liefert auch Stand heute immer noch derart schlechte Qualität ab. Und diese Technologie soll jetzt in Waffen eingebaut werden?
Naja Shit in, shit out.
Am Ende hängt das, was ChatGPT dir ausgibt, davon ab wie gut du dein LLM trainiert hast.
Die werden da nun bestimmt nicht die öffentlichen Models nutzen…
Die Frage ist doch, ob der Mensch überhaupt noch besser ist. Chatgpt macht Fehler, aber die macht der Mensch auch und meines Erachtens sogar mehr, als es chatgpt macht. Verrückte Menschen sind Präsidenten von ganzen Ländern und irgendwie geht es trotzdem weiter. Weshalb muss chatgpt erst perfekt sein ? Der Mensch ist es auch nicht und wird akzeptiert.
Super Argumentation. Der Mensch ist nicht perfekt also sollte unsere Technik auch nicht perfek sein.
Ich bin dafür, das 5% der Airbags nicht richtig funktionieren sollten wegen der Gleichberechtigung von Mensch und Technik. Wegen DEI und so.
Wo steht, dass diese nicht perfekt sein sollte ? Ich habe nicht geschrieben, dass diese nicht perfekt sein soll, dies hast du reininterpretiert. Dein Kommentar ist das beste Beispiel gerade. Eine KI hätte vermutlich aus meinem Kommentar nie herausinterpretiert, was du gerade getan hast. So kommen Missverständnisse zustande. Ich habe nur gemeint, dass eventuell chatgpt in einigen oder sogar vielen Belangen die besseren Entscheidungen trifft.
Vielleicht bin ich ja eine KI.
> aber die macht der Mensch auch und meines Erachtens sogar mehr, als es chatgpt macht.
Definitiv nicht. Viele verstehen leider nicht, dass ChatGPT nur eine große Stärke hat: Sprache. Nicht Fakten. Wo die Fakten fehlen, denkt sich ChatGPT Dinge aus und formuliert sie so, dass sie glaubwürdig klingen. Die Fehlerquote ist extrem, was man schnell merkt, wenn man sich mal etwas damit befasst. Und jetzt kann man ja mal überlegen, was das im übertragenen Sinn für den Einsatz von Waffen bedeutet. Ich finde in dem Zusammenhang auch die Argumentation schwach, es käme ja auf die trainierten Modelle an. Ja, natürlich. Aber die Technologie ist nicht tatsächlich viel weiter als das, was wir überall sehen.
Nein, es geht nicht darum, „perfekt“ zu sein. Aber der Anspruch muss sein, mindestens gleichwertig, wenn nicht besser zu sein. Vor allem dann, wenn es nicht um harmlose Dinge wie irgendwelche Marketing-Texte geht, sondern um den Einsatz in Waffen.
Und ja, auch Menschen machen Fehler. Und Menschen sind im Zweifel dafür dann auch haftbar, was ja auch richtig so ist, wenn es um das Leben anderer Menschen geht. Und sich darauf verlassen, dass – wie auch immer der KI-Einsatz in Waffen aussehen mag – vermutlich am Ende ein Mensch die Verantwortung tragen muss und wird, wissen wir alle, dass eine große Gefahr darin steckt, sich auf Automatismen zu verlassen.
Alles zum Schutze der Demokratie 😂. Ich Frage mich, weshalb man nicht dann die Politiker durch chatgpt ersetzt, wenn angeblich chatgpt die Demokratie so gut schützen kann 😂