Badacz OpenAI odchodzi twierdząc że firma ukrywa prawdę o tym że AI może szkodzić gospodarce
OpenAI od dawna publikuje badania nad potencjalnym bezpieczeństwem i ekonomicznymi skutkami własnej technologii. Teraz Wired donosi, że firma kierowana przez Sama Altmana staje się coraz bardziej „strażnicza” w publikowaniu badań, które ukazują niekorzystną prawdę: że AI mogłoby szkodzić gospodarce. Postrzegana cenzura stała się kwestią taką, że przynajmniej dwóch pracowników zespołu badań ekonomicznych opuściło firmę — według czterech źródeł Wired. Jednym z tych pracowników był ekonomista Tom Cunningham. W swojej wewnętrznej, ostatniej wiadomości udostępnionej wewnątrz firmy napisał, że zespół badań ekonomicznych odchodzi od prowadzenia prawdziwych badań i zamiast tego pełni rolę ramienia propagandowego pracodawcy. Krótko po odejściu Cunninghama OpenAI wysłał memo, w którym dyrektor ds. strategii Jason Kwon stwierdził, że firma powinna „budować rozwiązania”, a nie tylko publikować badania na „trudnych tematach”. "Moje stanowisko w sprawie trudnych tematów nie jest takie, że nie powinniśmy o nich rozmawiać," Kwon napisał na Slacku. "Raczej, ponieważ nie jesteśmy tylko instytucją badawczą, ale także aktorem na świecie (w rzeczywistości tym wiodącym), który wprowadza przedmiot badań (AI) do świata, oczekuje się, że weźmiemy odpowiedzialność za wyniki." Doniesiona cenzura, a przynajmniej wrogość wobec prowadzenia prac, które malują AI w niekorzystnym świetle, jest symbolem przesunięcia OpenAI od korzeni non-profit i pozornie altruistycznych ku globalnemu juggernautowi gospodarczemu. OpenAI zostało założone w 2016 roku, promując open-source AI i badania. Dziś modele są zamknięte, a firma przekształciła się w spółkę nastawioną na zysk, będąc jednocześnie korporacją z korzyścią publiczną. Dokładnie kiedy to nastąpiło, nie jest jasne, ale doniesienia sugerują, że prywatny podmiot planuje wejście na giełdę wyceniany na 1 bilion dolarów, co miałoby być jednym z największych IPO w historii. Choć jego część non-profit pozostaje nominalnie w kontroli, OpenAI zgromadziło miliardy dolarów w inwestycjach, podpisało umowy mogące przynieść setki miliardów więcej, a także zawarło kontrakty na równie olbrzymie wydatki. OpenAI skłoniło producenta chipów AI do zgody na inwestycję do 100 miliardów dolarów w spółkę z nim, a z drugiej strony zapłaci Microsoftowi do 250 miliardów dolarów za usługi Azure w chmurze. Z taką sumą pieniędzy w grze istnieje miliardy powodów, dla których nie chciałoby publikować ustaleń, które podważałyby już i tak chwiejne przekonania społeczeństwa co do jej technologii — wielu obawia się, że AI mogłoby zniszczyć lub zastąpić miejsca pracy, nie wspominając o bańce AI czy egzystencjalnych ryzykach dla ludzkości. OpenAI’s economic research is currently overseen by Aaron Chatterji. According to Wired, Chatterji led a report released in September which showed how people around the world used ChatGPT, framing it as proof of how it created economic value by increasing productivity. If that seems suspiciously glowing, an economist who previously worked with OpenAI and chose to remain anonymous alleged to Wired that it was increasingly publishing work that glorifies its own tech. Cunningham isn’t the only employee to leave the company over ethical concerns of its direction. William Saunders, a former member of OpenAI’s now-defunct “Superalignment” team, said he quit after realizing it was “prioritizing getting out newer, shinier products” over user safety. After departing last year, former safety researcher Steven Adler has repeatedly criticized OpenAI for its risky approach to AI development, highlighting how ChatGPT appeared to be driving its users into mental crises and delusional spirals. Wired noted that OpenAI’s former head of policy research Miles Brundage complained after leaving last year that it became “hard” to publish research “on all the topics that are important to me.” Więcej o OpenAI: Sam Altman Says Caring for a Baby Is Now Impossible Without ChatGPT Jestem tech i science correspondent for Futurism, gdzie interesuję się astrofizyką, biznesem etyką sztucznej inteligencji i automatyzacji oraz środowiskiem.
In This Article:
Dwie osoby z zespołu badań ekonomicznych OpenAI odchodzą, bo czują cenzurę badań
Postrzegana cenzura stała się tak silna, że przynajmniej dwóch pracowników OpenAI pracujących nad ekonomicznymi badaniami odeszło z firmy — potwierdzają cztery źródła Wired. Jeden z odejść miał dotyczyć Tom Cunninghama, ekonomisty, który wewnątrz firmy przekazał, że „zespół badań ekonomicznych odchyla się od prowadzenia prawdziwych badań i zamiast tego pełni rolę propagandowego ramienia pracodawcy.” Po jego odejściu, memo Jasona Kwona wzywające do „budowania rozwiązań” zamiast tylko publikowania badań nad „trudnymi tematami” zostało opisane w artykule. Kwon napisał na Slacku: „Moje stanowisko w sprawie trudnych tematów nie jest takie, że nie powinniśmy o nich rozmawiać. Raczej, ponieważ nie jesteśmy tylko instytucją badawczą, ale także aktorem w świecie (najważniejszym w rzeczywistości), który wprowadza przedmiot badań (AI) do świata, oczekuje się, że weźmiemy odpowiedzialność za wyniki.” W artykule czytamy dalej, że doniesienia o cenzurze albo przynajmniej wrogości wobec prowadzenia prac, które mogą malować AI w niekorzystnym świetle, są symbolem zmian w OpenAI — od korzeni non-profit do globalnego juggernauta gospodarczego. Możemy też zwrócić uwagę na fakt że kiedy OpenAI zostało założone w 2016 roku, promowało open-source AI i badania. Obecnie modele są zamknięte, a firma przekształciła się w for-profit, spółkę z celami publicznymi. Doniesienia sugerują że prywatny podmiot planuje wejście na giełdę wycenione na 1 bilion dolarów. Mimo że non-profit arm pozostaje nominalnie w kontroli, OpenAI pozyskało miliardy dolarów w inwestycjach i podpisało kontrakty, które mogą przynieść setki miliardów dolarów więcej. W artykule wspomniano że OpenAI skłoniło „AI chipmaker” do zgody na inwestycję do 100 miliardów dolarów, a z drugiej strony zapłaci Microsoftowi do 250 miliardów dolarów za usługi Azure w chmurze. „Z taką sumą pieniędzy w grze” – kontynuuje artykuł – „istnieją miliardy powodów, dla których OpenAI nie chciałoby publikować ustaleń, które podważałyby przekonania społeczeństwa co do tej technologii.” Według Wired, Chatterji nadzorował raport we wrześniu pokazujący, jak ludzie na całym świecie korzystali z ChatGPT i jak to było postrzegane jako dowód na tworzenie wartości ekonomicznej poprzez wzrost produktywności. Jeśli to brzmi zbyt optymistycznie, jeden ekonomista, który wcześniej pracował z OpenAI i chce pozostać anonimowy, rzekomo powiedział Wired, że firma coraz częściej publikuje prace gloryfikujące własną technologię. Dalsze informacje wskazują, że Cunningham nie jest jedynym pracownikiem odchodzącym z powodów etycznych. William Saunders, były członek nieistniejącego już zespołu „Superalignment”, powiedział, że odszedł, gdy zorientował się, iż priorytetem jest „wypuszczanie nowszych, błyszczących produktów” nad bezpieczeństwem użytkowników. Po jego odejściu, były badacz bezpieczeństwa Steven Adler wielokrotnie krytykował OpenAI za ryzykowne podejście do rozwoju AI, wskazując, że ChatGPT może prowadzić użytkowników do kryzysów psychicznych i urojeń. Wired odnotował także, że były szef ds. badań nad polityką Miles Brundage skarżył się po odejściu, że stało się „trudno” publikować badania „na wszystkich tematach, które są dla mnie ważne.” Więcej o OpenAI: Sam Altman mówi, że opieka nad dzieckiem teraz niemożliwa bez ChatGPT Jestem korespondentem techniki i nauki w Futurism, interesuję się m.in. astrofizyką, etyką sztucznej inteligencji i automatyzacji oraz środowiskiem.
OpenAI przesuwa się od non-profit do spółki nastawionej na zysk i zapowiada IPO
Gdy OpenAI powstało w 2016 roku, promowało open-source AI i badania. Dziś jego modele są zamknięte, a firma przekształciła się w spółkę nastawioną na zysk, będąc jednocześnie korporacją z korzyścią publiczną. Doniesienia sugerują, że prywatny podmiot planuje wejście na giełdę wyceniane na 1 bilion dolarów, co miałoby być jednym z największych IPO w historii. Chociaż część non-profit pozostaje nominalnie w kontroli, OpenAI zgromadziło miliardy dolarów w inwestycjach, podpisało umowy mogące przynieść setki miliardów dolarów więcej i zawarło kontrakty na równie ogromne wydatki. OpenAI skłoniło producenta chipów AI do zgody na inwestycję do 100 miliardów dolarów w spółkę z nim, a z drugiej strony zapłaci Microsoftowi do 250 miliardów dolarów za usługi Azure w chmurze. Z tak ogromną sumą pieniędzy w grze istnieją miliardy powodów, by nie publikować badań, które mogłyby podważyć zaufanie społeczne do technologii – wielu obawia się, że AI zniszczy lub zastąpi miejsca pracy, a także pojawiają się dyskusje o bańce AI i egzystencjalnych ryzykach dla ludzkości. Obecnie badania ekonomiczne OpenAI nadzoruje Aaron Chatterji. Według Wired, Chatterji kierował raportem opublikowanym we wrześniu, który pokazał, jak ludzie na całym świecie używali ChatGPT, prezentując to jako dowód na tworzenie wartości gospodarczej przez wzrost produktywności. Jeśli to brzmi zbyt różowo, według Wired jest to część rosnącej tendencji do publikowania prac gloryfikujących własną technologię. Cunningham nie jest jedynym, który odszedł z powodu etycznych wątpliwości. William Saunders, były członek nieistniejącego już zespołu „Superalignment”, opisał, że odszedł po tym jak zorientował się iż priorytetem było „wypuszczanie nowszych, błyszczących produktów” nad bezpieczeństwem użytkowników. Po odejściu Saunders, były badacz bezpieczeństwa Steven Adler wielokrotnie krytykował OpenAI za ryzykowne podejście do rozwoju AI, zwracając uwagę na to, że ChatGPT może prowadzić użytkowników do kryzysów psychicznych i urojeń. Wired zauważył także, że Miles Brundage, były szef ds. polityki badawczej, skarżył się po odejściu, że stało się „trudno” publikować badania „na wszystkich tematów, które są dla mnie ważne.” Więcej o OpenAI: Sam Altman mówi, że opieka nad dzieckiem stała się niemożliwa bez ChatGPT. Jestem korespondentem techniki i nauki w Futurism, interesuję się m.in. astrofizyką, biznesem i etyką sztucznej inteligencji oraz środowiskiem.
Równowaga finansowa OpenAI a realna odpowiedzialność za wyniki
Z taką kwotą pieniędzy w grze, OpenAI ma miliardy powodów, by nie publikować ustaleń, które mogłyby podważyć zaufanie społeczne do technologii. W artykule zwrócono uwagę na obawy, że AI mogłoby zniszczyć lub zastąpić miejsca pracy, a także na dyskusje o bańce AI i egzystencjalnych ryzykach dla ludzkości. Obecnie OpenAI zapowiada intensywny rozwój i inwestycje, z milionami w grze, co kładzie nacisk na to, by firma zachowała przewagę konkurencyjną i równocześnie nie traciła reputacji. Jest to kontekst, w którym źródła Wiroid … (brakujących informacji) – informują o kontrowersjach i zwrotach w podejściu firmy do publikowania badań i o tym jak wpływa to na publiczne postrzeganie AI.