No Image x 0.00 + POST No Image

OpenAI forscht nicht mehr ehrlich – Insider berichten von Zensur und einer versteckten Wahrheit

SHARE
0

OpenAI hat lange Forschungsarbeiten zu den potenziellen Sicherheits- und wirtschaftlichen Auswirkungen seiner Technologie veröffentlicht. Nun berichtet Wired, dass das von Sam Altman geführte Unternehmen zunehmend vorsichtiger wird, welche Forschung er veröffentlicht, die eine unbequeme Wahrheit aufzeigt: dass KI der Wirtschaft schaden könnte. Die empfundene Zensur ist zu einem Frustrationspunkt geworden: Mindestens zwei OpenAI-Mitarbeiter aus dem wirtschaftlichen Forschungs-Team haben das Unternehmen verlassen, laut vier Quellen von Wired. Einer dieser Mitarbeiter war der Wirtschaftsforscher Tom Cunningham. In seiner finalen Abschiedsnachricht, die intern geteilt wurde, schrieb er, dass das wirtschaftliche Forschungsteam davon abweicht, echte Forschung zu betreiben und stattdessen wie das Propagandaarm des Arbeitgebers handle. Kurz nach Cunninghams Weggang schickte OpenAIs Chief Strategy Officer Jason Kwon ein Memo, in dem das Unternehmen “Lösungen bauen”, nicht nur Forschung zu “harten Themen” veröffentlichen solle. „Meine Sicht auf harte Themen ist nicht, dass wir nicht über sie sprechen sollten“, schrieb Kwon auf Slack. „Vielmehr, weil wir nicht nur eine Forschungseinrichtung, sondern auch ein Akteur in der Welt (tatsächlich der führende Akteur) sind, der das Untersuchungsobjekt (KI) in die Welt bringt, wird von uns erwartet, Verantwortung für die Ergebnisse zu übernehmen.“ Diese Zensur oder Feindseligkeit gegenüber Arbeiten, die KI in einem unvorteilhaften Licht zeigen, ist emblematisch für OpenAIs Wandel von seinen gemeinnützigen und scheinbar altruistischen Wurzeln, während es sich zu einem globalen wirtschaftlichen Giganten entwickelt. Als OpenAI 2016 gegründet wurde, kämpfte es für offene KI und offene Forschung. Heute sind seine Modelle closed-source, und das Unternehmen hat sich zu einer gewinnorientierten Public-Benefit-Gesellschaft umstrukturiert. Genau wann das passierte, ist unklar, doch Berichte deuten darauf hin, dass die private Einheit plant, an die Börse zu gehen, mit einer Bewertung von rund 1 Billion US-Dollar – eines der größten IPOs aller Zeiten. Obwohl der Non-Profit‑Arm nominell die Kontrolle behält, hat OpenAI Milliarden von Investitionen angezogen, hat Deals unterschrieben, die Hunderte von Milliarden zusätzlich einbringen könnten, während es Verträge eingeht, gigantische Geldsummen auszugeben. OpenAI bringt den KI-Chiphersteller dazu, zuzustimmen, bis zu 100 Milliarden Dollar in OpenAI zu investieren, und erklärt, dass es Microsoft bis zu 250 Milliarden Dollar für Azure-Cloud-Dienste zahlen werde.

OpenAI forscht nicht mehr ehrlich – Insider berichten von Zensur und einer versteckten Wahrheit

Weggang von Tom Cunningham und die Vorwürfe gegen das Team

Tom Cunningham, Wirtschaftsforscher, verließ OpenAI. In seiner finalen internen Abschiedsnachricht schrieb er, dass das Wirtschaftsforschungsteam sich von echter Forschung entfernte und stattdessen wie die Propagandaarm des Arbeitgebers verhielt.

Weggang von Tom Cunningham und die Vorwürfe gegen das Team

Kwon Memo: Wir sollten Lösungen bauen, nicht nur harte Themen publizieren

Kurz nach Cunninghams Weggang schickte OpenAIs Chief Strategy Officer Jason Kwon ein Memo, in dem das Unternehmen “Lösungen bauen” solle, nicht nur Forschung über “harte Themen” zu veröffentlichen. „Meine Sicht auf harte Themen ist nicht, dass wir nicht über sie sprechen sollten“, schrieb Kwon auf Slack. „Vielmehr, weil wir nicht nur eine Forschungseinrichtung, sondern auch ein Akteur in der Welt (tatsächlich der führende Akteur) sind, der das Untersuchungsobjekt (KI) in die Welt bringt, wird von uns erwartet, Verantwortung für die Ergebnisse zu übernehmen.“

Kwon Memo: Wir sollten Lösungen bauen, nicht nur harte Themen publizieren

Vom gemeinnützigen Ursprung zur gewinnorientierten Public-Benefit-Gesellschaft

OpenAI wurde 2016 gegründet und setzte sich damals für offene KI und Forschung ein. Heute sind Modelle des Unternehmens closed-source, und es hat sich zu einer gewinnorientierten Public-Benefit-Gesellschaft umstrukturiert. Berichte deuten darauf hin, dass die private Einheit plant, an die Börse zu gehen und eine Bewertung von rund 1 Billion US-Dollar anzustreben, was eines der größten IPOs aller Zeiten sein könnte.

Vom gemeinnützigen Ursprung zur gewinnorientierten Public-Benefit-Gesellschaft

Milliardenverträge und finanzielle Abhängigkeiten

Obwohl der Non-Profit‑Arm nominell die Kontrolle behält, hat OpenAI Milliarden von Dollar an Investitionen angezogen, hat Deals unterschrieben, die Hunderte von Milliarden zusätzlich einbringen könnten, und schließt Verträge ab, um ebenfalls gigantische Geldsummen auszugeben. OpenAI brachte den KI-Chiphersteller dazu, zuzustimmen, bis zu 100 Milliarden Dollar in OpenAI zu investieren, und erklärt, dass es Microsoft bis zu 250 Milliarden Dollar für Azure-Cloud-Dienste zahlen werde.

Milliardenverträge und finanzielle Abhängigkeiten

Überblick über OpenAIs wirtschaftliche Forschung und interne Kritik

OpenAIs wirtschaftliche Forschung wird derzeit von Aaron Chatterji beaufsichtigt. Laut Wired leitete Chatterji einen im September veröffentlichten Bericht, der zeigte, wie Menschen weltweit ChatGPT nutzten und damit dessen wirtschaftlichen Wert durch Produktivitätssteigerung belegt. Wenn das zu glänzend klingt, behauptet ein Ökonom, der zuvor mit OpenAI gearbeitet hat und anonym bleiben will, gegenüber Wired, dass OpenAI zunehmend Arbeiten veröffentlicht, die die eigene Technologie verherrlichen.

Überblick über OpenAIs wirtschaftliche Forschung und interne Kritik

Weitere Exits und Kritik von ehemaligen Mitarbeitern

Cunningham ist nicht der einzige Mitarbeiter, der das Unternehmen aus ethischen Gründen der Ausrichtung verließ. William Saunders, ehemaliges Mitglied des inzwischen aufgelösten „Superalignment“-Teams, sagte, er habe gekündigt, nachdem ihm klar geworden sei, dass das Unternehmen es „prioritizing getting out newer, shinier products“ über die Sicherheit der Nutzer stelle. Nachdem er im letzten Jahr ging, kritisierte der ehemalige Sicherheitsforscher Steven Adler OpenAI wiederholt für seinen riskanten Ansatz in der KI-Entwicklung und hob hervor, wie ChatGPT zu mentalen Krisen und wahnhaften Spiralen bei Nutzern zu treiben schien. Wired merkte an, dass OpenAIs ehemaliger Head of Policy Research Miles Brundage nach seinem Weggang im letzten Jahr beklagt habe, es sei „schwer“ geworden, Forschung „zu allen Themen, die mir wichtig sind“, zu veröffentlichen.

Weitere Exits und Kritik von ehemaligen Mitarbeitern

Über den Autor

Ich bin Tech- und Wissenschaftskorrespondent bei Futurism, wo mich besonders Astrophysik, die Wirtschaft und Ethik der künstlichen Intelligenz und Automatisierung sowie die Umwelt interessieren.

Über den Autor