Biznes przed bezpieczeństwem? Amerykańskie media o kulisach zmian we władzach OpenAI

Obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo AI były w centrum sporu, który doprowadził do zwolnienia szefa OpenAI, firmy stojącej za ChatGPT, Sama Altmana - doniosły w niedzielę "New York Times" i Bloomberg. Altman miał stawiać na biznesowe podejście i wdać się w spór z czołowym naukowcem firmy. 

2023-11-20, 09:11

Biznes przed bezpieczeństwem? Amerykańskie media o kulisach zmian we władzach OpenAI
Według amerykańskich mediów, za zwolnieniem Sama Altmana z OpenAI miały stać obawy o zbyt szybki wzrost firmy. Foto: TY Lim/ Shuterstock

Jak pisze "NYT", powołując się na trzy wtajemniczone źródła, powodem nagłego zwolnienia szefa i twarzy OpenAI, firmy znanej jako twórcę chatbota ChatGPT, był konflikt Altmana z głównym naukowcem, współzałożycielem firmy i członkiem zarządu, Ilyą Sutskeverem. Sutskever miał uważać, że technologia tworzona przez organizację może być niebezpieczna, a Altman przykładał zbyt mało uwagi do tej kwestii i parł naprzód wiedziony logiką biznesowej konkurencji.

Rozwój firmy albo bezpieczeństwo technologii

Jak notuje "NYT", choć część OpenAI - założonej jako niekomercyjny ośrodek badań nad bezpieczną sztuczną superinteligencją (AGI) - przekształciła się w firmę komercyjną w 2018 r., to rządzi nią wciąż zarząd non-profit, w którym zasiadają osoby związane z ruchem tzw. skutecznego altruizmu (effective altruism, EA). Część tego ruchu, skupionego na maksymalizacji efektywności filantropii, w ostatnich latach była pochłonięta kwestią ryzyka zagłady ludzkości z powodu rozwoju AI. Z ruchem związany był także Altman, który wielokrotnie mówił o ryzyku katastrofalnych skutków rozwoju sztucznej inteligencji, ale akcentował też pozytywny potencjał tej technologii.

Podobnie konflikt opisał Bloomberg, według którego do zwolnienia Altmana doprowadzili kierujący spółką naukowcy, którzy obawiali się ekspansji spółki, uważając ją za "niekontrolowaną, może nawet niebezpieczną". Bloomberg twierdzi, że Altman "agresywnie" starał się o nowych inwestorów, by umożliwić dalszy rozwój i powiększanie bazy użytkowników ChatGPT, co wymaga ogromnego kapitału.

To, że kwestie obaw o konsekwencje niekontrolowanego rozwoju technologii były powodem nieoczekiwanych roszad w OpenAI, sugerował w niedzielę na portalu X Toby Ord, filozof i jeden z liderów ruchu EA. Według niego, wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że "nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków" oznacza, że biznesmen "zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AGI".

REKLAMA

OpenAI kontra Google. W tle zaangażowanie Muska

Jednak według "NYT", w grę wchodziły także kwestie personalne, w tym obawy o słabnącą pozycję Sutskevera. Gazeta wskazuje na niedawny awans polskiego informatyka Jakuba Pachockiego, zaangażowanego w prace nad ostatnim wypuszczonym przez firmę modelem GPT-4, który został mianowany szefem ds. badań, obejmując pozycję na równi z Sutskeverem.

Pachocki miał wspólnie z dwoma innymi Polakami w firmie - prof. Aleksandrem Mądrym i Szymonem Sidorem - podjąć decyzję o odejściu w związku ze zwolnieniem Altmana.

Jak notuje Bloomberg, Sutskever cieszy się renomą jako jeden z czołowych badaczy w branży, a do OpenAI z Google'a ściągnąć miał go Elon Musk, który również należał do założycieli ośrodka, lecz później zerwał więzy ze spółką. Musk miał "ukraść" naukowca koncernowi w nadziei na spowolnienie Google'a, obawiając się, że gigant dąży do rozwoju AI bez względu na bezpieczeństwo.

Inwestorzy za zwolnionym CEO

Los Altmana jeszcze w niedzielę wieczorem nie był przesądzony. W niedzielę wrócił do siedziby spółki, by rozmawiać o swoim ewentualnym powrocie na stanowisko.

REKLAMA

Czytaj także: 

PAP, IAR/ mbl


Polecane

REKLAMA

Wróć do strony głównej