Beispiel 4: The Pioneer Briefing, der Podcast – in der Folge „Wie kann der Staat schlanker werden, Prof. Udo Di Fabio?“
Irreführung durch Tatsachen- und Meinungsvermischung kann absichtlich erfolgen (Desinformation) oder unbeabsichtigt durch Nachlässigkeit, kognitive Verzerrung oder Missverständnisse entstehen. Es führt oft zu Fehlinformationen, die die Wahrnehmung oder Entscheidung einer Zielgruppe manipulieren oder verfälschen können.
In keinem Fall korrespondiert es mit der öffentlichen Aufgabe von Medien.
Die öffentliche Aufgabe von Journalisten besteht darin, die Gesellschaft durch präzise und fundierte Berichterstattung zu informieren. Art. 5 GG verleiht ihnen die Freiheit, dies ohne äußeren Druck zu tun, und verpflichtet sie zugleich zur verantwortungsvollen Ausübung ihres Berufs. Faktenprüfung ist dabei kein separater Prozess, sondern Kernbestandteil journalistischer Arbeit. Nur durch eine konsequente Wahrung dieser Standards können Journalisten ihrer demokratischen Verantwortung gerecht werden und einen unverzichtbaren Beitrag zur Meinungsbildung und Stabilität unserer Gesellschaft leisten.
The Pioneer Briefing – der Podcast veröffentlichte unter der Rubrik Finanzmärkte folgenden Text:

Dort steht, daß DeepSeek eine deutlich bessere KI gebaut hat als die US-Konkurrenten, und das Ganze in kürzerer Zeit deutlich kostengünstiger mit schlechteren Chips.
Die Behauptung, dass DeepSeek eine überlegene KI im Vergleich zu US-amerikanischen Konkurrenten entwickelt hat, ist differenziert zu betrachten. Das chinesische Start-up hat mit seinem Modell R1 ein KI-System vorgestellt, das trotz geringerer Ressourcen ähnliche Leistungen wie etablierte US-Modelle erbringt. Die Entwicklungskosten von R1 betrugen rund sechs Millionen Euro, was deutlich unter den Ausgaben der US-Konkurrenz liegt. Zudem nutzte DeepSeek weniger und ältere Grafikchips, die vor den US-Exportbeschränkungen nach China erworben wurden.
Aber ist DeepSeek deshalb deutlich besser wie behauptet?
Was bedeutet dabei eigentlich besser?
Wie ist diese Aussage im Podcast zu bewerten – als Aufforderung DeepSeek zu nutzen? Dies wäre angesichts der vielen Fragenzeichen zum KI-Modell fragwürdig.
Obwohl DeepSeek mit seinem Modell R1 beeindruckende Fortschritte gemacht hat, gibt es einige potenzielle Probleme und Herausforderungen, die bisher möglicherweise nicht vollständig erörtert oder erforscht wurden. Hier sind einige zentrale Aspekte:
Langfristige Skalierbarkeit und Nachhaltigkeit
- Hardware-Abhängigkeit: DeepSeek hat bisher mit älteren und weniger leistungsfähigen Chips gearbeitet. Es ist unklar, ob dieses Modell auch auf neue, fortschrittlichere Hardware übertragbar ist oder ob es langfristig durch Exportbeschränkungen behindert wird.
- Rechenzentrums-Infrastruktur: Die Skalierung von DeepSeek könnte durch begrenzte Cloud- und Rechenressourcen in China erschwert werden, insbesondere wenn westliche Anbieter (wie NVIDIA, Google oder Amazon Web Services) keinen Zugang mehr gewähren.
Datenqualität und Trainingsmethodik
- Eingeschränkter Zugang zu hochwertigen Trainingsdaten: Viele der besten Open-Source- und proprietären Datenquellen sind in den USA und Europa angesiedelt. Falls DeepSeek auf vorwiegend chinesische Daten angewiesen ist, könnte dies zu einem Bias führen, der seine weltweite Nutzbarkeit einschränkt.
- Zensur und politische Einflussnahme: In China unterliegen KI-Modelle staatlicher Kontrolle und Zensur. Dies könnte die Fähigkeit von DeepSeek beeinträchtigen, sich frei und unvoreingenommen weiterzuentwickeln.
Fehlende Innovationskraft im Vergleich zu OpenAI & DeepMind
- Open-Source- vs. proprietäre Modelle: OpenAI, Meta und Google haben große Ökosysteme rund um Open-Source-Modelle aufgebaut, wodurch deren Innovationstempo durch externe Entwickler beschleunigt wird. Falls DeepSeek ein rein proprietäres Modell bleibt, könnte es langfristig ins Hintertreffen geraten.
- Fehlende Diversifikation der Forschung: Während westliche Konkurrenten spezialisierte Modelle für Bildgenerierung, Video, Physik oder Wissenschaft entwickeln, ist noch unklar, ob DeepSeek eine vergleichbare Forschungsbreite aufweist.
Geschäftsmodell und Monetarisierung
- Unklare Monetarisierungsmöglichkeiten: OpenAI und Google setzen auf Abonnement- oder API-Modelle, während DeepSeek noch kein klares Geschäftsmodell hat. Falls DeepSeek nicht profitabel wirtschaften kann, könnte es finanziell von Subventionen oder Investoren abhängig bleiben.
- Mögliche geopolitische Barrieren: Falls westliche Unternehmen oder Entwickler DeepSeek nicht nutzen dürfen (z. B. aufgrund von US-Sanktionen), könnte das Modell wirtschaftlich isoliert werden.
Sicherheit und ethische Risiken
- Mangelnde Sicherheitskontrollen: Falls DeepSeek Sicherheitsaspekte vernachlässigt, könnten sich Risiken durch unkontrollierbare oder missbräuchliche Nutzung ergeben (Deepfakes, Desinformation, Cyberangriffe).
- Mögliche Nutzung für militärische Zwecke: Westliche Behörden könnten DeepSeek als Risiko für die nationale Sicherheit einstufen, was Sanktionen oder Einschränkungen für chinesische KI-Exporte nach sich ziehen könnte.