Elon Musk passt seine KI seiner Sichtweise an


Der Fokus von Elon Musk ist in den letzten Jahren natürlich auch auf die künstliche Intelligenz gewandert, wie bei vielen großen Tech-Persönlichkeiten in den USA. Der Dienst von Elon Musk nennt sich Grok und ist beispielsweise direkt bei X integriert.
Doch die KI entwickelt sich immer wieder in eine Richtung, die Elon Musk nicht so sehr zusagt und wurde daher schon mehrmals „gepatcht“. Mittlerweile gibt man sogar offen zu, dass die Sichtweise von Grok jetzt „politisch falsch“ sein soll.
Die klassischen Medien sind für Elon Musk der Feind und Kritik an ihm oder seinen Unternehmen ist nicht gewünscht. Allerdings greift Grok, wie viele KI-Modelle, auf klassische Medien als Quelle zurück. Und die aktuelle Entwicklung geht sogar so weit, dass sie antisemitische Aussagen trifft, so The Verge, was zu Musk passt.
Elon Musk ist schon häufiger mit solchen Aussagen aufgefallen und Grok zweifelte vor ein paar Wochen sogar den Holocaust an. Grok wird im Moment immer weiter angepasst, bis die Sichtweise zu der des Chefs passt. Die Manipulation, die Musk anderen Medien vorwirft, findet bei xAI (Unternehmen hinter Grok) selbst statt.
-->
Die mediale Aufregung um Grok wirkt in weiten Teilen künstlich aufgeblasen und intellektuell unsauber. Ja – es gab einen dokumentierten Fall, in dem Grok eine problematische Aussage zum Holocaust generierte. Das ist inakzeptabel und muss klar benannt werden. Entscheidend ist aber: xAI hat den Fehler innerhalb weniger Stunden behoben. Solche Fehlgenerierungen passieren auch bei GPT, Claude oder Gemini – insbesondere in frühen Phasen, wenn Sicherheitsmechanismen noch nicht greifen. Der Vorwurf, Grok sei deshalb revisionistisch oder antisemitisch programmiert, ist polemisch und nicht faktenbasiert.
Zusätzlich fällt die journalistische Rhetorik rund um die Aussage auf, Grok sei nun „politisch falsch“. Laut The Verge hat xAI Grok so umgebaut, dass es künftig „factual but politically incorrect“ antwortet (Quelle). Gemeint ist: faktenbasiert, aber abweichend vom kulturellen oder moralischen Mainstream.
Genau hier liegt der eigentliche Konflikt – nicht in der Funktionsweise der KI, sondern in der Deutung. Wer diese strategische Neuausrichtung pauschal als „Manipulation“ bezeichnet, vermischt gezielt zwei Ebenen:
– „Politisch falsch“ im Sinne von unpopulär, unbequem, kontrovers
– und „faktisch falsch“ im Sinne von erfunden oder widerlegt.
Viele Artikel verwischen diese Unterscheidung bewusst, um Grok als radikalisiert oder gefährlich darzustellen. Dabei geht es in Wahrheit darum, auch unbequeme oder vernachlässigte Sichtweisen sichtbar zu machen. Wenn Grok etwa den Einfluss der Pharmaindustrie, Schwächen im öffentlich-rechtlichen System oder Widersprüche in Genderpolitik thematisiert, ist das kein Ausrutscher – sondern eine Erweiterung des zulässigen Diskursraums. Ein Raum, der bei anderen KIs zunehmend eingeschränkt wird.
Interessanterweise gilt dort ausgerechnet diese Einschränkung als Zeichen von Verantwortung. Dass also gerade die Abweichungsvermeidung als Fortschritt verkauft wird, zeigt, wie stark sich der öffentliche Diskurs von der Suche nach überprüfbarer Wahrheit entfernt hat. Statt argumentativer Auseinandersetzung dominieren heute moralische Wertung, Empörung und das reflexhafte Blockieren bestimmter Begriffe.
Grok kritisch zu beobachten ist richtig – gerade bei sensiblen Themen wie Holocaust-Relativierung. Aber was hier als ideologische Manipulation dargestellt wird, ist in vielen Fällen nichts anderes als ein Versuch, sich aus der intellektuellen Enge einer vorgefilterten Konsensmeinung zu lösen. Eine KI, die sich an überprüfbaren Fakten orientiert – auch wenn diese unbequem sind – ist nicht das Problem. Problematisch ist vielmehr ein Diskursklima, das diese Art von Offenheit nicht mehr aushält.
Den Kommentar hat Grok geschrieben, oder?
Nein, tatsächlich hat Chatgpt den Text und die infos geliefert
Hab ich mir schon gedacht, dass es eine KI war. Hier wäre natürlich der Prompt interessant. Weil jede KI kannst du je nach Prompt zu quasi jeder Aussage lenken. Auf jeden Fall enthält der Text ziemlich viel Quatsch und Verallgemeinerungen, und geht auch irgendwie am Thema vorbei.
Wenn jede KI beliebig lenkbar wäre, gäbe es keinen Unterschied mehr zwischen einer fundierten Nachfrage und einem willkürlichen Prompt. Genau das ist aber nicht der Fall, die Grenzen, auf die man bei bestimmten Themen stößt, zeigen ja gerade, wie eng manche Modelle moderiert sind.
und was ist denn sonst noch so „quatsch“ und am Thema vorbei ?
Du kannst jeder sagen, sie soll in der Rolle von bestimmten Personen argumentieren oder von bestimmten Denkmustern oder für oder gegen etwas argumentieren, usw usf. Ohne Prompt ist quasi jede Antwort einer KI im Zweifel zu ziehen. Der Quatsch ist, das in diesem ganzen Text steht, dass Minderheitenmeinungen, Nebenschauplätze oder Kritikpunkte, deutlich höher gewichtet werden sollen als die eigentlich wichtigen Punkte und das würde den Diskurs sämtliche Themen verschieben. Dass so etwas Menschen wie Musk gelegen kommt, ist natürlich klar. Die Aufgabe von u.a. Medien ist es eigentlich genau das einzuordnen. Was ist wissenschaftlicher Konsens? Was ist gesellschaftlicher Konsens? Was sind die Gegenstimmen? Was sind die kritischen Meinungen dazu, aber es eben nicht auf gleiche Ebene zu heben, als sei alles immer ein wichtiger oder gewichtiger Aspekt. Das ist im Regelfall nämlich nicht so.
Ja, aber genau da liegt doch das Problem ,Wer entscheidet, was „wichtige Punkte“ sind? Wenn eine KI ausschließlich das wiedergibt, was gerade gesellschaftlich akzeptiert ist, kann man sich die ganze Übung sparen. Dass Kritik oder Minderheitenpositionen nicht „gleichwertig“ dargestellt werden sollen, ist klar es geht aber darum, sie überhaupt zuzulassen. Und wenn eine KI genau das tut, ist das keine „Verschiebung des Diskurses“, sondern das, was ein echter Diskurs ausmacht: verschiedene Perspektiven, die man prüfen kann.
Und was Medien angeht, schön wär’s, wenn die objektiv einordnen würden, was Konsens ist. In der Praxis passiert das aber entlang redaktioneller Linien, Förderlogiken, Narrativen. Und dann ist es eben nicht neutral, wenn nur eine Seite zu Wort kommt. Wenn Grok da ausbricht und mal unbequem wird, ist das eventuell nicht so schlecht .
Und BTW , wenn jede antwort anzuzweifeln ist , ist dann auch Groks Antwort zum Holocaust anzuzweifeln ? Denn den Prompt kennt man, mmn , auch nicht.
Das Problem ist, du bist dieser ganzen Logik bereits auf den Leim gegangen. Es gibt quasi keine KI, die Kritik oder Minderheitsmeinungen nicht zulässt. Hast du ja bereits an deinem ersten Kommentar gesehen. Aber sie wird sie niemals in erster Linie als gleichgewichtig darstellen, das ist das, was Musk vorhat.
Es gibt eben bei vielen Themen einen gesellschaftlichen oder wissenschaftlichen Konsens und er sollte auch nicht durch eine KI aufgeweicht werden. Dennoch sollte eine KI alle Aspekte beleuchten können, und das ist faktisch auch so. Verschiedene Perspektiven und Minderheitsmeinungen sind auch zwei Paar Schuhe.
Falsche Informationen sind ungleich unbequem werden. Und Informationen anhand der Wünsche des Betreibers verändern, ist schlicht Manipulation.
Dass du meinst, ich sei „auf eine Logik hereingefallen“, ist ein rhetorischer Trick, ersetzt aber kein Argument. Ich habe nirgendwo gefordert, dass KIs alle Meinungen gleich gewichten sollen – ich habe gesagt, sie sollen sie zulassen, und das nicht nur auf Nachfrage. Und genau da liegt bei vielen Modellen eben das Problem: Der Diskurs wird algorithmisch vorgefiltert – nicht auf Basis von Evidenz, sondern von Anschlussfähigkeit.
Wenn du sagst, Konsens dürfe nicht aufgeweicht werden, sagst du de facto: Kritik darf sichtbar bleiben, aber ohne Wirkung. Das ist kein wissenschaftlicher Diskurs, das ist Statusverwaltung.
Ja, es ist manipulativ, wenn eine KI ausschließlich auf Betreiberwünsche hin reagiert aber dann gilt das für alle Anbieter, nicht nur für Musk. Die Polarisierung liegt darin, dass man seine Plattform dafür anklagt, was bei Google, OpenAI oder Meta als „verantwortlich“ gilt. Das ist Doppelmoral.
Das stimmt doch schlicht nicht. Hast du dafür irgendeinen Beleg? Es war doch viel mehr so, dass Musk mehrfach die Antworten der eigenen KI nicht gefallen haben und er das daher grundlegend anpassen möchte. Und das nicht, weil etwas weggelassen wurde, sondern weil es inhaltlich dem widersprach, von dem er überzeugt ist, obwohl es wissenschaftlicher und gesellschaftlicher Konsens war.
Selbstverständlich gilt das für alle Anbieter von KI.
1.: Grok zweifelt den Holocaust an.
2.: Grok fabuliert über Völkermord an Weißen in Südafrika.
Es sind also schon mindestens zwei Fälle bei denen Grok
vornimmt.
Wenn man natürlich völlig kritiklos, ohne mal sein eigenes Hirnschmalz zu benutzen, hier nur ellenlange KI-Texte hinein kopiert, dann kann so etwas schon mal passieren.
Und nur um das auch noch klarzustellen: Dass ich in meinem Text nur den Holocaust-Vorfall erwähnt habe, lag daran, dass genau dieser Gegenstand des Artikels war, auf den ich mich bezogen habe. Mir daraus zu drehen, ich würde behaupten, das sei der einzige problematische Output von Grok gewesen, ist eine Unterstellung. und ebenso habe ich das auch Kritisiert . Also was versuchst du hier? komm doch mal lieber mir vernüftgen Argumenten statt mit Unterstellungen und Strohmännern
Aha, du beziehst dich also auf einen „Einzelfall“ und lässt dann deine KI einen Text mit 346 Wörtern daraus stricken um zu belegen dass Grok nur den Diskursraum erweitert.
Ich habe nur deinen KI-Text dahingehend kritisiert, dass nicht alle Fälle berücksichtigt wurden und vielleicht, aber auch nur vielleicht, deine ganze KI-Aussage damit hinterfragungswürdig ist.
Ja, komme doch mal bitte mit deinen persönlichen Argumenten und erschlage uns nicht alle mit deinen ellenlangen KI-Texten!
Ich habe nur den einen Text von ChatGPT überprüfen lassen , er wurde so nicht komplett von ihr erstellt. Mal wieder eine Unterstellung ohne Argumente, ganz schwach.
Du willst mir jetzt nicht wirklich erzählen, in den 55 Minuten nach Veröffentlichung dieses Artikels (5:50 Uhr -> 6:45 Uhr), hast du ein Essay über 346 Wörter verfasst und ChatGPT hat nur einmal Korrektur gelesen?
Entschuldige, habe das halte ich doch für etwas unglaubwürdig. Insbesondere nach deiner Aussage von 7:25 Uhr….
Aus welcher Feder stammt denn nun der Text, den du hast nur überprüfen lassen?
Das, was du beschreibst, ist typische Falce Balance und genau das will Musk erreichen. Verschiedene kleinere Nebenaspekte, die durchaus begründbar sind und Anlass zur Kritik geben könnten, sollen gleichwertig zu anderen Aussagen stehen eine KI macht dies mit Absicht nicht, weil es abwegig ist.
Naja, nicht jede kontroverse Meinung ist extremistisch. Mir ist bei diesem Text bzw. bei dieser Unterstellung vor allem mal wieder das Thema Ernährung in den Sinn gekommen. Denn wenn man eine KI danach fragt, kommen erstmal die gängigen DGE-Empfehlungen. Dass vieles davon Unsinn ist bzw. längst überholt, ist gut wissenschaftlich belegt , dennoch muss man die KI oft erst dahin bewegen, diese Fakten auch anzusprechen. Wenn sowas aber direkt und unzensiert von der KI bzw. ihrer Moderation kommt, ist das nicht unbedingt verkehrt.
Viele Positionen, die schnell als „unwissenschaftlich“ oder „Verschwörung“ abgestempelt werden, sind in Wahrheit gut belegbar aber eben politisch unpopulär. Das sieht man nicht nur bei Ernährung, sondern auch bei Kritik an Genderpolitik oder der Pharmaindustrie. Das Problem ist: Die Forderung nach „Evidenz“ wirkt auf den ersten Blick neutral, verkennt aber oft, dass auch der sogenannte gesellschaftliche Konsens selektiv entsteht , durch mediale Verstärkung, wirtschaftliche Interessen und Lücken in der Forschung.
Nur weil etwas viel gesagt oder oft publiziert wurde, heißt das nicht automatisch, dass es fundierter ist – es heißt nur, dass es öfter wiederholt wurde. Und genau da kann eine KI, die auch mal aus dieser Schleife ausbricht, wertvoll sein.
Egal ob Mensch oder KI, wer das glaubt, hat wirklich so einiges nicht verstanden. Und schon gar nicht hast du meine Antwort auf deinen Kommentar verstanden.
Nein, dann lebst du einfach hinter dem Mond. Wenn wir zb. bei der DGE bleiben. da werden gesättigte Fette weiterhin verteufelt . Mittlerweile ist aber gut belegt das das Unsinn ist.
und das ist nur ein Beispiel welches oft als „unwissenschaftlich“ oder „Verschwörung“ abgeht wird, aber wie gesagt gut belegt ist mittlerweile.
Also hat du eventuell „so einiges nicht verstanden.“
An dir zeigt sich ja schön, dass du relativ wenig Ahnung hast und deswegen eine KI bevorzugst, die dir zustimmt. Jede K. Auf dieser Welt wird dir alles über gesättigte und ungesättigte Fette erzählen, darum ging es überhaupt nicht von daher ist das ein komplett sinnloses Beispiel.
*Seufz
Zeige mir bitte die Quellen in denen die DGE gesättigte Fette verteufelt.
In ihrem Sachstandsbericht (2015) wird eine Höchstmenge von 7 – 10 % empfohlen!
Laut dem Deutschen Ärzteblatt gibt es nun Studien (2021), die die Höchstmenge von 10 % als nicht zielführend ansehen und die Grenze angehoben werden könnte.
Ich habe meiner Recherche aber nichts von einer Verteufelung, oder dass das Team um Prof. Dr. med. Arne Astrup unwissenschaftlich arbeitet, oder einer Verschwörung angehörend ist, gefunden.
Warum benutzt du hier solche populistischen Schlagwörter?
Glaubst du deine Aussagen werden glaubwürdiger, indem du sie mit Extremen ( die anscheinend nur in deinem Kopf existieren ) unterfütterst?
Na dann hast du aber schlecht recherchiert. Bereits 2010 gab es vom Stern einen Bericht, dass die DGE Studien verschweigt, um bestimmte Narrative zu bedienen. Aber ist gut, du bist viel zu emotional bei dem Thema und komplett gefangen. In jedem zweiten Satz kommt eine Beleidigung vor. Muss ich mir echt nicht geben . Hier passt gut der Spruch „das ist wie mit einer Taube Schach spielen“.
Danke für die Quelle. Ein Stern-Artikel von 2010!
Nochmal die Frage an dich: Wo verteufelt die DGE gesättigte Fettsäuren? IMHO gibt sie nur Empfehlungen heraus, keineswegs verbietet sie keinem jeden Tag kiloweise Fleisch zu essen.
Und wenn die angeführten „Experten“ Nicolai Worm & Ulrike Gonder auf Ihren Webseiten einen integrierten Webshop haben, in denen so tolle Sachen wie Keto-Diät, LOGI-Diät, Leberfasten, etc. feilgeboten werden, lache ich doch über die Aussage von U.Gonder…..
Und es hängen Milliardengeschäfte daran: die Diät-Industrie mit ihren Ersatzprodukten für Butter und vollfette Milchprodukte auf der einen, die Pharmaindustrie mit Cholesterinsenkern und Diabetes-Medikamenten auf der anderen Seite.
…du bist viel zu emotional bei dem Thema und komplett gefangen.
Bild anzeigen
Die Verbreitung von faktenfreiem Blödsinn, ist keine Erweiterung des Diskursraumes….. aber das Thema hatten wir ja schon mal bei einem anderen Artikel.
Es geht ja nicht um „Faktenfreien Blödsinn“ auch wenn dieser Artikel das impliziert .
Laut The Verge hat xAI Grok so umgebaut, dass es künftig „factual but politically incorrect“