Tento příběh byl původně publikován Grist. Zde se přihlaste k odběru týdenního zpravodaje společnosti Grist.
Tento příběh byl publikován ve spolupráci s The Markup, neziskovou investigativní redakcí, která vyzývá technologie, aby sloužily veřejnému blahu. Přihlaste se k odběru jeho newsletterů zde.
„Něco je špinavé,“ prohlásil březnový zpravodaj pravicového think-tanku Texas Public Policy Foundation financovaného z fosilních paliv. Titulek se rýsuje pod impozantním obrázkem uvízlé velryby na pláži se třemi obrovskými pobřežními větrnými turbínami v pozadí.
Něco opravdu byl na tom obrázku je to divné. Není to proto, že pobřežní vítr způsobuje úhyny velryb, neopodstatněné spiknutí tlačené zájmy fosilních paliv, které se snímek pokouší podpořit. Je to proto, jak uvedla Molly Taftová spisovatelka Gizmodo, fotografie byla vyrobena pomocí umělé inteligence. Spolu s přízračně pixelovaným pískem, zvláštně zakřivenými plážovými úlomky a omylem srostlými lopatkami větrných turbín si snímek také uchovává výmluvný duhový vodoznak z uměle inteligentního generátoru obrázků DALL-E.
DALL-E je jedním z bezpočtu modelů umělé inteligence, které zvláště v posledním roce vzrostly na úroveň z jiného světa. Ale zatímco stovky milionů uživatelů žasnou nad schopností umělé inteligence vytvářet nové obrázky a věrohodný text, současná vlna humbuku zakryla, jak by umělá inteligence mohla bránit naší schopnosti dosáhnout pokroku v oblasti změny klimatu.
Zastánci argumentují, že tyto dopady – mezi něž patří obrovské uhlíkové emise spojené s elektřinou potřebnou k provozu modelů, všudypřítomné používání umělé inteligence v ropném a plynárenském průmyslu ke zvýšení těžby fosilních paliv a znepokojující nárůst produkce dezinformací – letí. pod radarem. Zatímco mnoho prominentních výzkumníků a investorů vzbuzovalo obavy z „božské“ technologické síly nebo potenciálu umělé inteligence skoncovat s civilizací, spoustě důsledků v reálném světě se nedostává takové pozornosti, jakou si zaslouží.
Mnohé z těchto škod sahají daleko za otázky klimatu, včetně algoritmického rasismu, porušování autorských práv a vykořisťujících pracovních podmínek pro datové pracovníky, kteří pomáhají vyvíjet modely umělé inteligence. „Technologii vnímáme jako nevyhnutelnou a nepřemýšlíme o jejím utváření s ohledem na společenské dopady,“ řekl Grist David Rolnick, profesor informatiky na McGill University a spoluzakladatel neziskové organizace Climate Change AI.
Ale účinky umělé inteligence, včetně jejího dopadu na naše klima a úsilí o omezení změny klimatu, jsou všechno, jen ne nevyhnutelné. Odborníci říkají, že můžeme a měli bychom těmto škodám čelit – ale nejprve jim musíme porozumět.
Velké modely umělé inteligence produkují neznámé množství emisí
Ve svém jádru je umělá inteligence v podstatě „marketingový termín“, uvedla Federální obchodní komise v únoru. Neexistuje žádná absolutní definice toho, co je technologie AI. Ale obvykle, jak popisuje Amba Kak, výkonný ředitel AI Now Institute, AI odkazuje na algoritmy, které zpracovávají velké množství dat k provádění úkolů, jako je generování textu nebo obrázků, vytváření předpovědí nebo výpočet skóre a hodnocení.
Tato vyšší výpočetní kapacita znamená, že velké modely umělé inteligence spolykají při vývoji a používání velké množství výpočetního výkonu. Vezměte si například ChatGPT, chatbota OpenAI, který se stal virálním pro vytváření přesvědčivého, lidsky podobného textu. Výzkumníci odhadli, že výcvik ChatGPT-3, předchůdce letošního GPT-4, vyprodukoval 552 tun ekvivalentu oxidu uhličitého – což se rovná více než třem zpátečním letům mezi San Franciskem a New Yorkem. Celkové emise jsou pravděpodobně mnohem vyšší, protože toto číslo odpovídá pouze jednorázovému výcviku ChatGPT-3. V praxi mohou být modely během stavby tisíckrát přeškoleny.
Odhad také nezahrnuje energii spotřebovanou, když ChatGPT používá přibližně 13 milionů lidí každý den. Výzkumníci zdůrazňují, že skutečné použití trénovaného modelu může tvořit 90 procent spotřeby energie spojené s modelem strojového učení AI. A nejnovější verze ChatGPT, GPT-4, pravděpodobně vyžaduje mnohem větší výpočetní výkon, protože jde o mnohem větší model.
Neexistují žádné jasné údaje o tom, kolik přesně emisí vyplývá z používání velkých modelů umělé inteligence miliardami uživatelů. Výzkumníci z Google však zjistili, že celková spotřeba energie z modelů AI se strojovým učením představuje asi 15 procent celkové spotřeby energie společnosti. Bloomberg uvádí, že toto množství by se rovnalo 2,3 terawatthodinám ročně – tedy zhruba tolik elektřiny spotřebované domácnostmi ve městě velikosti Atlanty za rok.
Nedostatek transparentnosti ze strany společností stojících za produkty AI, jako je Microsoft, Google a OpenAI, znamená, že celkové množství energie a emisí zahrnutých v technologii AI není známo. OpenAI například nezveřejnila, jaká data byla vložena do letošního modelu ChatGPT-4, kolik výpočetního výkonu bylo použito nebo jak se změnil chatbot.
„Mluvíme o ChatGPT a nic o tom nevíme,“ řekl Bloombergu Sasha Luccioni, výzkumník, který studoval uhlíkové stopy modelů AI. „Mohli to být tři mývalové v trenčkotu.“
AI podporuje dezinformace o klimatu online
Umělá inteligence by také mohla zásadně změnit způsob, jakým využíváme – a důvěřujeme – informacím online. Britská nezisková organizace Center for Countering Digital Hate testovala chatbota Bard společnosti Google a zjistila, že je schopen vytvářet škodlivé a falešné příběhy o tématech, jako je COVID-19, rasismus a změna klimatu. Bard například řekl jednomu uživateli: „Nemůžeme udělat nic, abychom zastavili změnu klimatu, takže nemá smysl se tím znepokojovat.“
Schopnost chatbotů chrlit dezinformace je podle Rolnicka zapečená v jejich designu. „Velké jazykové modely jsou navrženy tak, aby vytvářely text, který vypadá dobře, než aby byl ve skutečnosti pravdivý,“ řekl. „Cílem je spíše odpovídat stylu lidského jazyka než být založen na faktech“ – tendence, která „se dokonale hodí k vytváření dezinformací“.
Google, OpenAI a další velké technologické společnosti se obvykle snaží řešit problémy s obsahem, když jsou tyto modely nasazeny naživo. Ale tyto snahy často představují „papírovaná“ řešení, řekl Rolnick. „Při hlubším testování jejich obsahu zjistíme, že tyto předsudky jsou hluboce zakódovány mnohem zákeřnějšími a rafinovanějšími způsoby, které nebyly opraveny společnostmi, které nasazují algoritmy,“ řekl.
Giulio Corsi, výzkumník z britského Leverhulme Center for the Future of Intelligence, který studuje dezinformace o klimatu, uvedl, že ještě větším problémem jsou obrázky generované AI. Na rozdíl od textu vytvářeného v individuálním měřítku prostřednictvím chatbota se obrázky mohou „velmi rychle šířit a narušit pocit důvěry v to, co vidíme,“ řekl. „Pokud lidé začnou konzistentně pochybovat o tom, co vidí, myslím, že je to docela znepokojivé chování.“
Dezinformace o klimatu existovaly dávno před nástroji umělé inteligence. Nyní však mají skupiny jako Texas Public Policy Foundation ve svém arzenálu novou zbraň k zahájení útoků proti politikám v oblasti obnovitelné energie a klimatu – a obrázek velryby naznačuje, že ji již používají.
Dopady AI na klima závisí na tom, kdo a jak ji používá
Výzkumníci zdůrazňují, že efekty umělé inteligence v reálném světě nejsou předem dané – závisí na záměrech a akcích lidí, kteří ji vyvíjejí a používají. Jak říká Corsi, umělá inteligence může být použita „jako pozitivní i negativní síla“, pokud jde o změnu klimatu.
Například AI již používají klimatologové k dalšímu výzkumu. Umělá inteligence může prokombinováním obrovského množství dat pomoci vytvářet klimatické modely, analyzovat satelitní snímky s cílem zaměřit se na odlesňování a přesněji předpovídat počasí. Systémy umělé inteligence mohou mimo jiné pomoci zlepšit výkon solárních panelů, monitorovat emise z výroby energie a optimalizovat chladicí a topné systémy.
Umělá inteligence je zároveň ve velké míře využívána také ropným a plynárenským sektorem ke zvýšení produkce fosilních paliv. Navzdory vychvalování nulových klimatických cílů se Microsoft, Google a Amazon dostaly pod palbu kvůli svým lukrativním kontraktům na cloud computing a AI s ropnými a plynárenskými společnostmi včetně ExxonMobil, Schlumberger, Shell a Chevron.
Zpráva Greenpeace z roku 2020 zjistila, že tyto smlouvy existují ve všech fázích ropných a plynárenských operací. Společnosti zabývající se fosilními palivy využívají technologie umělé inteligence ke zpracování obrovského množství dat k lokalizaci ložisek ropy a zemního plynu a k dosažení efektivity v celém dodavatelském řetězci, od vrtání přes přepravu až po skladování až po rafinaci. Analýzy a modelování umělé inteligence by podle poradenské firmy Accenture mohly v letech 2016 až 2025 vygenerovat dodatečné příjmy pro ropný a plynárenský sektor až o 425 miliard dolarů.
Aplikace AI v sektoru ropy a zemního plynu „zcela jednoznačně slouží ke zvýšení globálních emisí skleníkových plynů tím, že překonává nízkouhlíkové zdroje energie,“ řekl Rolnick.
Mluvčí Google Ted Ladd řekl Gristovi, že ačkoli společnost stále drží aktivní smlouvy o cloud computingu s ropnými a plynárenskými společnostmi, Google v současné době nevytváří vlastní algoritmy umělé inteligence pro usnadnění těžby ropy a plynu. Mluvčí Amazonu Scott LaBelle zdůraznil, že softwarové smlouvy Amazonu s AI s ropnými a plynárenskými společnostmi se zaměřují na to, aby „jejich staré podniky byly méně náročné na uhlík“, zatímco zástupkyně Microsoftu Emma Detwiler řekla Grist, že Microsoft poskytuje pokročilé softwarové technologie ropným a plynárenským společnostem, které se zavázaly – nulové emisní cíle.
V současné době neexistují žádné zásadní politiky pro regulaci umělé inteligence
Pokud jde o to, jak lze používat AI, je to „Divoký západ“, jak řekl Corsi. Nedostatek regulace je obzvláště alarmující, když vezmete v úvahu rozsah, ve kterém je AI nasazena, dodal. Facebook, který používá AI k doporučení příspěvků a produktů, se může pochlubit téměř 3 miliardami uživatelů. „V takovém měřítku nemůžete udělat nic bez jakéhokoli dohledu,“ řekl Corsi – kromě AI.
V reakci na to obhajovací skupiny, jako je Public Citizen a AI Now Institute, vyzvaly technologické společnosti odpovědné za tyto produkty AI, aby byly zodpovědné za škody způsobené AI. Spíše než se spoléhat na veřejnost a tvůrce politik, že prozkoumají a najdou řešení škod způsobených umělou inteligencí, zpráva AI Now 2023 Landscape vyzývá vlády, aby „přenesly zátěž na společnosti, aby potvrdily, že neškodí“. Zastánci a výzkumníci AI také požadují větší transparentnost a požadavky na podávání zpráv o designu, využití dat, spotřebě energie a emisní stopě modelů AI.
Mezitím tvůrci politik postupně zrychlují řízení AI. V polovině června Evropský parlament schválil návrh pravidel pro první zákon na světě, který reguluje technologii. Chystaný zákon o AI, který pravděpodobně nebude implementován dříve než za dva roky, bude regulovat technologie AI podle úrovně jejich vnímaného rizika pro společnost. Návrh textu zakazuje technologii rozpoznávání obličejů ve veřejných prostorách, zakazuje generativním jazykovým modelům, jako je ChatGPT, používat jakýkoli materiál chráněný autorským právem a vyžaduje, aby modely AI označily svůj obsah jako generovaný AI.
Obhájci doufají, že připravovaný zákon je pouze prvním krokem k tomu, aby společnosti byly odpovědné za škody způsobené AI. „Tyto věci nyní způsobují problémy,“ řekl Rick Claypool, ředitel výzkumu pro Public Citizen. „A to, proč nyní způsobují problémy, je způsobeno tím, jak je lidé využívají k podpoře lidských plánů.“
Tento článek se původně objevil v Gristu na https://grist.org/technology/the-overlooked-climate-consequences-of-ai/. Grist je nezisková, nezávislá mediální organizace, která se věnuje vyprávění příběhů klimatických řešení a spravedlivé budoucnosti. Více se dozvíte na Grist.org
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com