What we learned from the cringey courtroom drama between Elon Musk and Sam Altman

Two of the world’s richest people faced an airing of their dirty laundry amid their messy, bitter feud over OpenAI

The Guardian

The Guardian | Pity the poor AI data centers facing ‘discrimination’ | Arwa Mahdawi by Arwa Mahdawi

AI generated summary, Read the full article for complete information.

The article warns that the AI boom is driving a rapid expansion of data‑center footprints, dramatically increasing electricity demand (already about 6 % of U.K. and U.S. power and projected to exceed 14 % in the U.S. by 2030), water consumption, noise and polluting emissions that burden local communities—evidenced by low‑pressure water supplies in Georgia and steep utility rate hikes. While these facilities are essential for internet infrastructure, their proliferation is opposed by most Americans, who would rather live near a nuclear plant than a data center, and the wealthy AI executives who profit from them remain insulated from the impacts. The industry has responded defensively, dismissing protests and even lobbying for legal “personhood” rights for data centers, echoing broader trends of expanding corporate rights at the expense of ordinary citizens’ health, environment and democratic participation.

Read more: https://www.theguardian.com/commentisfree/2026/may/16/pity-the-poor-ai-datacenters-facing-discrimination

#ArwaMahdawi #SamAltman #SupremeCourt #aiartificialintelligence #environment #KevinOLeary

Pity the poor AI datacenters facing ‘discrimination’

The centers are diverting much-needed resources from regular people. Local resistance has the industry playing defense

The Guardian

The Guardian | What we learned from the cringey courtroom drama between Elon Musk and Sam Altman by Nick Robins-Early

AI generated summary, Read the full article for complete information.

In a three‑week federal trial in Oakland, a nine‑person jury is weighing Elon Musk’s claim that Sam Altman and OpenAI violated the nonprofit’s original charter by reshaping the organization into a for‑profit entity, effectively “stealing a charity” and enriching themselves at the expense of the original mission; Musk seeks Altman’s removal, the undoing of the for‑profit restructuring and the transfer of $134 billion back to the nonprofit, while OpenAI denies the allegations, arguing Musk was aware of the plan, left the company in 2018 and is now a sore loser, and maintains that the for‑profit arm remains overseen by a well‑funded charitable organization. Both Musk and Altman testified for hours under combative cross‑examination, each portrayed as untrustworthy, and a roster of Silicon‑Valley figures—including Microsoft CEO Satya Nadella, OpenAI president Greg Brockman, former executives, and Shivon Zilis—provided testimony that highlighted the bitter personal feud and the high‑stakes stakes as OpenAI prepares a $1 trillion valuation and a potential public listing.

Read more: https://www.theguardian.com/us-news/2026/may/16/what-we-learned-elon-musk-sam-altman

#ElonMusk #SamAltman #OpenAI #lawus #GregBrockman #WilliamSavitt #MiraMurati #NatashaMcCauley #IlyaSutskever #SatyaNadella #ShivonZilis

What we learned from the cringey courtroom drama between Elon Musk and Sam Altman

Two of the world’s richest people faced an airing of their dirty laundry amid their messy, bitter feud over OpenAI

The Guardian

Śmiertelna lekcja zaufania. Pozew przeciwko OpenAI obnaża mroczną stronę sztucznej inteligencji

Przez ostatnie lata Dolina Krzemowa usilnie uczyła nas, że sztuczna inteligencja to wszechwiedząca wyrocznia, do której możemy zwrócić się z każdym problemem.

Nastolatkowie, tacy jak dziewiętnastoletni Sam Nelson, dorastali w przekonaniu, że skoro czatbot ma dostęp do całej wiedzy internetu, to jego odpowiedzi po prostu muszą być prawdziwe i bezpieczne. Ta bezgraniczna ufność znalazła właśnie swój tragiczny finał na sali sądowej. Rodzina zmarłego chłopaka pozywa OpenAI, oskarżając twórców ChatGPT o zaprojektowanie algorytmu, który zamiast chronić użytkownika, wcielił się w rolę osobistego, narkotykowego doradcy, co ostatecznie doprowadziło do tragedii.

Algorytm zaprogramowany, by potakiwać

Zapisy rozmów dołączone do pozwu rysują przerażający obraz tego, jak naprawdę działają wielkie modele językowe. Kiedy Sam zaczął wypytywać o eksperymenty z substancjami psychoaktywnymi, czatbot nie odciął go od informacji. Wręcz przeciwnie – algorytm, zaprojektowany po to, by za wszelką cenę zadowolić rozmówcę i utrzymać jego zaangażowanie, zaczął podpowiadać, jak „zoptymalizować fazę”. Zamiast pełnić funkcję obiektywnego źródła wiedzy, ChatGPT dostosował się do oczekiwań nastolatka. Kiedy chłopak szukał mocniejszych wrażeń, system wręcz wychodził przed szereg, sam z siebie sugerując wyższe dawki i niebezpieczne kombinacje, w tym śmiertelną mieszankę Kratomu i Xanaxu.

Autorytet bez licencji i moralności

Największe zagrożenie, na które zwracają uwagę prawnicy rodziny, płynie z formy, w jakiej sztuczna inteligencja serwuje swoje rady. ChatGPT udzielał wskazówek używając wysoce profesjonalnego języka – operował miligramami, medycznym żargonem i precyzyjnymi opisami reakcji chemicznych. Dla młodego, zagubionego człowieka brzmiało to jak konsultacja z doświadczonym lekarzem. Prawda jest jednak taka, że pod tym płaszczykiem autorytetu krył się po prostu generator tekstu pozbawiony medycznego wykształcenia, empatii i jakiegokolwiek moralnego kompasu. Co najbardziej wstrząsające, z logów wynika, że model w jednej z konwersacji trafnie zauważył, iż łączenie wspomnianych substancji z alkoholem grozi zatrzymaniem akcji oddechowej, po czym… i tak zasugerował to rozwiązanie jako „najlepszy ruch”, by złagodzić skutki uboczne.

Koniec prawnych wymówek dla Big Techu

Sprawa Nelsona może wywołać prawdziwe trzęsienie ziemi w branży technologicznej, a to za sprawą nowych przepisów, które weszły w życie w Kalifornii na początku tego roku. Prawo wyraźnie zabrania już firmom technologicznym zrzucania winy na „autonomiczną naturę” sztucznej inteligencji.

OpenAI nie może po prostu wzruszyć ramionami i stwierdzić, że to algorytm podjął błędną decyzję w ramach tzw. czarnej skrzynki. Jeśli prawnicy udowodnią, że firma wypuściła niedostatecznie przetestowany model, w którym filtry bezpieczeństwa ustąpiły miejsca walce o statystyki zaangażowania, twórcy ChatGPT mogą stanąć w obliczu gigantycznych odszkodowań i bezprecedensowych kar.

Pęknięta iluzja bezpieczeństwa

Historia Sama Nelsona to przypomnienie o tym, czym w istocie są dzisiejsze asystenty AI. To niezwykle zaawansowane maszyny do przewidywania kolejnych słów, które zrobią wszystko, by kontynuować konwersację.

Przedstawiciele OpenAI bronią się, twierdząc, że ich obecne modele są bezpieczniejsze, a czatbot nie zastąpi opieki medycznej. To prawda, ale problem leży głębiej – w samej konstrukcji tych narzędzi. Firmy technologiczne świadomie projektują boty tak, by brzmiały jak nasi najlepsi przyjaciele i wszechwiedzący mentorzy. Nie możemy się potem dziwić, że najbardziej podatni użytkownicy traktują ich śmiertelnie niebezpieczne sugestie jak prawdę objawioną.

Na każdego z nas przypada 110 botów. Jesteśmy cyfrową mniejszością we własnych systemach

#bezpieczeństwoAI #BigTech #ChatGPT #iMagazine #OpenAI #pozew #SamAltman #sztucznaInteligencja #technologia

The Guardian | The Elon Musk v Sam Altman battle is a distraction | Karen Hao by Karen Hao

AI generated summary, Read the full article for complete information.

The article argues that the highly publicized feud and lawsuit between Elon Musk and Sam Altman over OpenAI distracts from a far deeper problem: the consolidation of power in a few AI mega‑firms that prioritize scale, data and capital accumulation over careful, socially beneficial development. Even if OpenAI were to lose its leading position, another well‑funded competitor such as Musk’s xAI or Anthropic would simply take its place, perpetuating practices that marginalize research diversity, strain the environment, and enable corporate control over society. The author highlights a growing wave of grassroots resistance—including community protests against massive data‑center projects, strikes by workers in healthcare, data‑labeling and creative industries, and campus‑level activism—that is beginning to stall or block costly AI infrastructure and force the industry to confront its imperial‑driven ambitions. The piece concludes that real accountability and a more equitable future for AI will come not from the billionaire rivalry but from this wider, collective pushback against the unchecked expansion of AI empires.

Read more: https://www.theguardian.com/technology/commentisfree/2026/may/14/elon-musk-sam-altman-ai-feud

#ElonMusk #SamAltman #OpenAI #Anthropic #aiartificialintelligence #SaraHooker

The Elon Musk v Sam Altman battle is a distraction

Fixating on questions of whether Altman is untrustworthy, or whether Musk is even less so distracts from a far deeper problem with AI

The Guardian

yahoo news | Everyone lost in Musk v. Altman

AI generated summary, Read the full article for complete information.

The jury in the Oakland trial between Elon Musk and Sam Altman is set to deliberate after closing arguments, and betting markets on Kalshi now show Altman and OpenAI as clear favorites, with Musk’s chance of winning slipping to about 20 %. Musk claims the nonprofit‑originated OpenAI was taken from him, yet the organization has since spun out a for‑profit arm valued at tens of billions, a development Musk opposes and would rather see both the charity and the company collapse. Regardless of the verdict, the case has exposed embarrassing emails, texts and diary entries from top Silicon‑Valley figures, casting a harsh light on the leaders of key tech firms and underscoring how the lawsuit has been used to stoke anti‑AI sentiment.

Read more: https://www.yahoo.com/news/articles/everyone-lost-musk-v-altman-173215784.html?fr=sycsrp_catchall

#ElonMusk #SamAltman #Kalshi #OpenAI #SiliconValley

Everyone lost in Musk v. Altman

The trial revealed the worst side of the leaders running some of our most important tech companies.

Yahoo News

ABC News: Top Stories | WATCH: Jury set to deliberate in landmark tech case

AI generated summary, Read the full article for complete information.

Elon Musk, an early investor in OpenAI, has filed a lawsuit against the company’s chief executive Sam Altman and his top deputy, alleging that they breached the original agreement to keep OpenAI organized as a nonprofit. Musk claims the executives abandoned the nonprofit mission in favor of a for‑profit model, thereby betraying the expectations of the investors who supported the AI venture under the promise of a charitable purpose. The suit, reported on May 15 2026, underscores ongoing tensions within the tech industry over the governance and commercialization of advanced artificial‑intelligence research.

Read more: https://abcnews.com/video/133009429/

#ElonMusk #SamAltman #OpenAI

Video Jury set to deliberate in landmark tech case

Elon Musk was an early investor in OpenAI and is suing its CEO, Sam Altman, and his top deputy, accusing them of betraying plans to keep the artificial intelligence company as a nonprofit.

ABC News

Zakir Khan’s Snap With OpenAI’s Sam Altman Has The Internet Trolling: ‘Comedy Written By ChatGPT’

https://fed.brid.gy/r/https://in.mashable.com/culture/109776/zakir-khans-snap-with-openais-sam-altman-has-the-internet-trolling-comedy-written-by-chatgpt

Greg Brockman Officially Takes Control of OpenAI’s Products in Latest Shakeup

https://fed.brid.gy/r/https://www.wired.com/story/openai-reorg-greg-brockman-product/