Die Diskussion um ein KI-Vorprüfverfahren im Weißen Haus wird durchsickert, Hassett wird am Tag danach von offiziellen Stellen dementiert

MarketWhisper

白宮AI預審機制討論

Der Leiter des National Economic Council (NEC) des Weißen Hauses, Kevin Hassett, sagte in einem Interview mit Fox Business am 7. Mai, dass die Trump-Regierung daran arbeite, über eine Executive Order zu verlangen, dass KI-Modelle vor ihrer öffentlichen Veröffentlichung einen Sicherheitscheck der Regierung bestehen, und verglich dies mit dem FDA-Verfahren zur Zulassung von Medikamenten vor dem Inverkehrbringen. Laut Politico vom 8. Mai bezeichneten jedoch anschließend hochrangige Beamte im Weißen Haus die Aussage als „aus dem Zusammenhang gerissen“.

Ablauf des Ereignisses: Die Berichterstattung der „New York Times“ bringt die politischen Widersprüche im Weißen Haus ans Licht

Am 4. Mai 2026 berichtete die „New York Times“, dass das Weiße Haus über den Aufbau eines Mechanismus zur Vorabprüfung von KI-Modellen vor deren Veröffentlichung berate; dies wurde damals als „in Erwägung gezogen“ eingestuft. Am 7. Mai 2026 erklärte Kevin Hassett in einem Interview mit Fox Business öffentlich: „Wir prüfen gerade, ob wir per Executive Order verlangen können, dass KI, die in der Zukunft möglicherweise Schwachstellen aufweist, erst dann eingesetzt wird, nachdem sie ihre Sicherheit nachgewiesen hat – genauso wie bei FDA-Medikamenten.“

Spät am 7. Mai 2026 schrieb der Stabschef des Weißen Hauses, Susie Wiles, auf der Plattform X, die Regierung „ist nicht dafür zuständig, Sieger und Verlierer auszuwählen“, und erklärte, starke Technologie solle durch „herausragende Innovatoren in den USA statt durch bürokratische Einrichtungen“ gesichert eingesetzt werden. Laut den Aufzeichnungen seines offiziellen Kontos handelt es sich bei dem genannten Post um den vierten Inhalt, seit Wiles’ Konto erstellt wurde.

Laut Politico zufolge diskutiert das Weiße Haus, dass Nachrichtendienste vor der öffentlichen Veröffentlichung von KI-Modellen eine Vorausbewertung durchführen. Ein US-Regierungsbeamter sagte in dem Bericht, das Ziel sei unter anderem, „sicherzustellen, dass die Intelligence-Gemeinschaft diese Werkzeuge zuerst untersucht und nutzt, bevor Gegner wie Russland und China ihre neuen Fähigkeiten kennen“.

Betroffene Behörden und politischer Rahmen

CAISI erweitert freiwillige Sicherheitsbewertungs-Vereinbarungen

Das AI Standards and Innovation Center (CAISI) im Geschäftsministerium gab diese Woche bekannt, dass es mit Google DeepMind, Microsoft und xAI Vereinbarungen zur AI-Sicherheitsbewertung unterzeichnet hat. Der Umfang wurde auf OpenAI und Anthropic ausgeweitet, die zuvor bereits einbezogen waren. Der freiwillige Bewertungsrahmen von CAISI ist seit 2024 in Kraft.

Stellvertretender Verteidigungsminister unterstützt öffentlich Mechanismen zur Vorabprüfung

Der stellvertretende Verteidigungsminister Emil Michael sprach am 8. Mai 2026 auf einer KI-Konferenz in Washington öffentlich seine Unterstützung für staatliche Vorabbewertungen von KI-Modellen vor deren Veröffentlichung aus. In seinem Statement führte er das Mythos-System von Anthropic als Beispiel an und sagte, dass die betreffenden Modelle „früher oder später auftauchen werden“ und die Regierung daher Mechanismen zur Bewältigung schaffen müsse.

Politischer Hintergrund der Trump-Regierung und Anthropic

Laut Politico hat Verteidigungsminister Pete Hegseth Anthropic im März 2026 aus Gründen von Lieferkettenrisiken in eine Liste von Risikokandidaten aufgenommen und untersagt, dass seine Modelle für Verträge des Verteidigungsministeriums genutzt werden. Daraufhin habe Trump außerdem verlangt, dass Bundesbehörden innerhalb von sechs Monaten die Nutzung von Anthropic-Produkten einstellen. Gleichzeitig hatte Anthropic im vergangenen Monat offengelegt, dass sein KI-System Mythos über starke Fähigkeiten zum Auffinden von Software-Schwachstellen verfügt – über die Sicherheitsanforderungen hinaus, die für eine öffentliche Veröffentlichung gelten. Mehrere Bundesbehörden stellten anschließend Anträge auf Anbindung. OpenAI gab am 8. Mai 2026 bekannt, dass es eine begrenzte Vorschau auf das neue Tool GPT-5.5-Cyber für die Erkennung und Reparatur von Netzwerkschwachstellen startet.

Widerstand der Branche gegen verpflichtende Prüfmechanismen

Der Vorsitzende des Information Technology and Innovation Foundation (ITIF), Daniel Castro, sagte in einem Politico-Bericht: „Wenn man vor dem Inverkehrbringen ablehnen kann, ist das für jedes Unternehmen ein großes Problem. Wenn ein Wettbewerber die Genehmigung erhält und ein anderer nicht, machen die Wochen oder Monate Unterschied beim Marktzugang einen enormen Unterschied.“ Zu den Geldgebern von ITIF zählen Anthropic, Microsoft und Meta.

Ein hochrangiger Beamter des Weißen Hauses sagte in demselben Bericht: „Es gibt tatsächlich ein oder zwei, die sehr daran interessiert sind, die Regierungregulierung voranzutreiben, aber das sind nur wenige.“ Der Beamte erhielt Anonymität, weil er sensible Diskussionen über die Politik beschrieben habe.

Häufige Fragen

Wann und wo äußerte sich Kevin Hassett zu KI-Vorabprüfungen?

Laut Politico machte Kevin Hassett am 7. Mai 2026 in einem Interview mit Fox Business öffentlich den Vorschlag, dass die Regierung eine Executive Order erwäge, die verlangt, dass KI-Modelle vor ihrer Veröffentlichung eine Sicherheitsprüfung der Regierung durchlaufen, und dass dies an den FDA-Prozess für die Medikamentenzulassung angelehnt sei.

Auf welcher Grundlage bestreitet das Weiße Haus Hassetts Aussagen?

Laut Politico vom 8. Mai 2026 sagte ein hochrangiger Beamter im Weißen Haus, Hassetts Aussage sei „etwas aus dem Zusammenhang gerissen“, und die politische Ausrichtung des Weißen Hauses sei eine Partnerschaft mit Unternehmen, nicht die Durchsetzung staatlicher Regulierung. Stabschef Susie Wiles stellte zudem in einem weiteren Beitrag klar, dass die Regierung sich nicht in die Marktentscheidungen einmischt.

Welche neuen Vereinbarungen für KI-Sicherheitsbewertungen kamen diese Woche bei CAISI hinzu?

Laut einer Erklärung von CAISI, die diese Woche veröffentlicht wurde, umfasst die neue Vereinbarung Google DeepMind, Microsoft und xAI sowie zusätzlich zu den zuvor abgedeckten OpenAI- und Anthropic-Modellen. Der freiwillige Bewertungsrahmen wird seit 2024 umgesetzt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Hermes Agent führt heute die OpenRouter-Nutzungsrangliste mit 271 Milliarden Tokens an und überholt OpenClaw

Laut Nous Research belegte Hermes Agent heute den ersten Platz in der globalen Rangliste zur Nutzung von Anwendungs-Token von OpenRouter mit 271 Milliarden Tokens und überholte OpenClaw, das mit 245 Milliarden Tokens den zweiten Platz einnahm. Kilo Code (149 Milliarden) und Claude Code (79 Milliarden) folgten auf den dritten und vierten Plätzen. Die ersten vier Plätze wurden von Agent- und CLI-Programmier-Tools dominiert, was eine starke Entwicklernachfrage nach Code-Automatisierung und KI-Agent

GateNews12M her

Epoch AI-Bericht: Anthropic erzielt 9 Millionen US-Dollar Umsatz pro Kopf und liegt damit über 60% über OpenAI

Laut den am 8. Mai von der KI-Forschungsorganisation Epoch AI veröffentlichten Daten-Einblicken schätzt der Forscher Luke Emberson, dass Anthropic pro Mitarbeiter rund 9 Millionen US-Dollar erwirtschaftet, während OpenAI pro Mitarbeiter rund 5,5 Millionen US-Dollar erwirtschaftet. Beide Werte liegen über dem Pro-Kopf-Umsatzniveau aller großen börsennotierten Tech-Unternehmen auf der Forbes-Liste Global 2000. Daten- und Schätzmethodik sowie wichtigste Vergleichskennzahlen (Quelle: Epoch AI) Laut

MarketWhisper19M her

Der seit Jahrzehnten geführte Tagebuch-Einblick von OpenAIs Präsident Brockman kommt diese Woche vor Gericht ans Licht und zeigt strategische Spannungen in Bezug auf den Non-Profit-Status

Laut Beating-Monitoring und Gerichtsverfahren wurde diese Woche im Rahmen der Beweisaufnahme im Rechtsstreit mit dem juristischen Team von Elon Musk das zehn Jahre lange private Tagebuch von OpenAI-Präsident Greg Brockman, das Hunderte Seiten umfasst, als Beweismittel offengelegt. Die Einträge des Tagebuchs aus dem Jahr 2017 erwiesen sich dabei als besonders streitbefördernd: Brockman schrieb „the real answer is we want him out“ und „we can't say we promised to stay non-profit. We don't want to

GateNews24M her

Cerebras-IPO: Zeichnungen überzeichnet um das 20-Fache, die Preisspanne oder wird auf 135 US-Dollar je Aktie angehoben

Laut einem Bericht der Bloomberg-Nachrichtenagentur vom 9. Mai liegen die Zeichnungsaufträge für den Börsengang (IPO) des KI-Chip-Herstellers Cerebras Systems bereits bei dem 20-fachen der ausgegebenen Aktienzahl. Bloomberg zitiert dabei Insider: Das Unternehmen plane, die Preisspanne für den Börsengang, die ursprünglich auf 115 bis 125 US-Dollar je Aktie festgelegt war, schnellstmöglich am 11. Mai von 125 bis 135 US-Dollar anzupassen. IPO-Preispanne und Emissionsdetails Laut dem von Cerebras am

MarketWhisper54M her

Der Umsatz pro Mitarbeiter von Anthropic erreicht 9 Millionen US-Dollar, liegt 60% über OpenAI und übertrifft alle öffentlichen Tech-Giganten

Laut dem neuesten Bericht von Epoch AI erreichte die Einnahmen pro Mitarbeiter von Anthropic ungefähr 9 Millionen US-Dollar und übertraf damit die von OpenAI in Höhe von 5,6 Millionen US-Dollar um 60%. Beide Unternehmen haben alle Technologiefirmen in der Forbes-Liste Global 2000 übertroffen, wobei Nvidias Einnahmen pro Mitarbeiter bei 5,1 Millionen US-Dollar für

GateNews1Std her

Ant Bailing veröffentlicht ein Ring-2,6-1 Billionen-Parameter-AI-Modell mit 87,6 PinchBench-Score

Laut Jinshi hat Ant Bailing heute sein Flaggschiff-Ring-2.6-1T-Reasoning-Modell mit Billionen Parametern veröffentlicht, das für die Ausführung komplexer Aufgaben in der realen Welt entwickelt wurde. Das Modell verfügt über ein anpassbares Reasoning-Effort-Mechanismus, der die Inferenz-Intensitätsstufen high und xhigh unterstützt. Bei der Ausführung realer Aufgaben

GateNews1Std her
Kommentieren
0/400
Keine Kommentare