Sobota, 12 října, 2024
Google search engine
DomůZpravodajstvíPod čarou: Fotky nikdy nebyly realita. AI na tom nic nemění

Pod čarou: Fotky nikdy nebyly realita. AI na tom nic nemění

V newsletteru Pod čarou popisuje každou sobotu Matouš Hrdina společenské trendy, které sice vídáme všude kolem sebe, ale v přílivu každodenního zpravodajství trochu zanikají mezi řádky. Pokud vás ukázka zaujme, přihlaste se k odběru plné verze newsletteru.

V médiích nedávno proletěla zpráva, že se Donald Trump znovu vrátil na místo nepovedeného atentátu ve městě Butler v Pensylvánii a uspořádal tam velkolepý mítink. Musel jsem chvíli přemýšlet, o který atentát na Trumpa vlastně šlo (došlo už ke dvěma pokusům). A pak mi došlo, jak moc už jsme tuto nepochybně závažnou událost vypustili z paměti.

Kulka škrtla o ucho prezidentského kandidáta 13. července, ale zdá se, jako by to byla dávná minulost. A v kolektivní paměti už také vybledla fotka, kterou vzápětí po střelbě pořídil reportér agentury AP Evan Vucci a která byla zcela po právu označována za ikonický snímek.

Takřka renesanční kompozice Trumpa se zakrvácenou tváří a vzdorovitě vztyčenou pěstí obklopeného bodyguardy a americkou vlajkou v mnohém připomíná slavné fotky dokumentující přelomové události 20. století. Ocitla se i na titulce časopisu Time, ale na rozdíl od popálené vietnamské holčičky, Aldrina na Měsíci nebo vztyčování vlajky na Iwodžimě nabrala v mediálním ekosystému úplně jinou trajektorii – jednoduše řečeno, po pár měsících už si na ni nikdo nevzpomene.

Reportážní a dokumentární fotografie už v médiích nehrají zdaleka takovou roli jako kdysi. Prestižní světová média a agentury sice stále najímají špičkové fotoreportéry, kteří si každoročně rozdají ceny a uspořádají oceňované výstavy, ale jde o velmi okrajový obor. V době, kdy má téměř každý ve svém smartphonu ukrytý i výkonný foťák s kamerou a internet je přesycen obrazovým materiálem všeho druhu, ztrácejí sebevíce ikonické snímky atraktivitu i sílu dopadu na veřejné mínění.

Připomněl to i nedávný film Civil War, ve kterém režisér Alex Garland vykresluje dramatické putování party profesionálních válečných fotografů a filmařů skrze fiktivní občanskou válku v USA. Je to sice relativně povedený snímek se spoustou trefných politických komentářů, ale jeho základní premisa je naivní anachronismus.

Poslechněte si audioverzi newsletteru načtenou autorem.

Z takového konfliktu (jak to každodenně vidíme v jiných částech světa) by zcela jistě přicházelo takové množství působivých a šokujících amatérských fotek a videa, že by většina médií o precizní profesionální snímky neměla zájem, a cyničtí, životem ošlehaní reportéři pořizující pod palbou atmosférické černobílé momentky působí jako návštěvníci ze 40. let minulého století.

Mohlo by se zdát, že jde o škodlivý proces, kterému bychom se měli bránit. Ikonické fotky přece pomáhaly v boji za mír a lidská práva, podporovaly nejrůznější občanská hnutí a utužovaly kolektivní identitu, soudržnost a historickou paměť národů i celého lidstva.

Slábnoucí roli profesionální reportážní fotografie ale můžeme vnímat i pozitivně. V době, kdy sílí obavy z možných manipulací a lží šířených prostřednictvím stále věrnějších AI obrázků, totiž ukazuje, že moc obrazu zase není tak velká a nemusíme propadat panice.

Kapesní továrna na lži?

Debata o možných rizicích obrazů produkovaných AI generátory už se vede několik let. Nové kolo paniky se ale roztočilo letos v srpnu poté, co Google představil nový telefon Pixel 9.

Jeho aplikace pro editování fotek Magic Editor umožňuje pomocí AI z fotek jednoduše odstraňovat nežádoucí lidi a objekty, nebo tam naopak něco přidávat, a to tak, že je výsledek běžným pohledem k nerozpoznání od reality (detaily pro Seznam Zprávy popisoval Pavel Kasík). Rozhodně to není první nástroj, který by využíval AI k úpravám a retuši obrazu, ale díky své jednoduchosti a přesvědčivosti rychle upoutal pozornost a znepokojené komentáře na sebe nenechaly dlouho čekat.

Příkladem může být hojně sdílený text, který sepsala Sarah Jeong pro web The Verge. Tvrdí, že lidé fotografii až donedávna brali jako „reprezentaci pravdy“, a dosavadní metody manipulace fotek odbývá s tím, že byly příliš pracné a málo časté. Teď se podle ní změní základní očekávání, lidé budou fotky automaticky považovat za „lež“ místo „pravdy“, a ještě zesílí vlna dezinformací. A stejně jako jiní kritici, i Jeong se obává, že nás tyto nové nástroje připraví o vzpomínky.

Opakuje výroky představitelů Googlu, kteří tvrdí, že si teď uživatelé budou moci vytvořit nové autentické vzpomínky „tak, jak si je pamatují“, i když to možná nebude úplně odpovídat realitě. Na první pohled to zní dystopicky a nebezpečně, ale ve skutečnosti je to jen fráze, která nepopisuje nic nového a odpovídá dosavadní situaci.

I „opravdová“ fotka vlepená do rodinného alba je vždy nevyhnutelně jen stylizovaný výsek reality, který jsme se rozhodli zachytit (a jiné vynechat). A když si náhodou do cestovatelského deníku místo fotky načrtneme obrázek, asi by nás také nikdo neosočil, že si vytváříme falešné vzpomínky. Každý snímek navíc existuje v kontextu a prohlížení rodinného alba se neobjede bez vyprávění někoho, kdo snímky komentuje a dodává k nim další informace. A úplně stejně to funguje i u jakéhokoliv jiného druhu fotografie včetně té zpravodajské v masmédiích.

Základní premisa aktuální morální paniky – tedy že „falešné“ AI fotografie vyvolají chaos a nahlodají sdílenou realitu – nedává smysl, protože fotografie nikdy nebyla žádným přímým a objektivním záznamem reality. Poplašné zprávy o nových kapesních strojích na dezinformace ignorují hned několik důležitých skutečností najednou. Neberou ohled na historii a společenskou roli fotografie, neřeší cesty, kterými lidé přijímají a vykládají (dez)informace, a také přehlížejí již existující situace, ve kterých jsme se začali prát s manipulativním potenciálem AI.

Nejisté obrazy reality

Historie fotografie ukazuje, že nikdy nešlo o médium, které by odborníci i široká veřejnost považovali za automaticky věrný a pravdivý záznam reality. Julian Stallabrass v povedené eseji pro New Left Review konstatuje, že k novému vynálezu nejdřív lidé přistupovali s krajní nedůvěrou a již od začátku bylo jasné, že je to technologie náchylná k různým manipulacím.

Ty přitom nemusely spočívat jen v násilné přímé retuši a upravování negativu či výsledného snímku, ale nabízely se i mnohem sofistikovanější cesty. Jeong a další kritici varující před manipulativním potenciálem AI často zmiňují např. známé umazávání Stalinových spolupracovníků ze společných fotek při čistkách ve 30. letech, ale nedochází jim, že tento příklad je slavný právě kvůli své nepovedenosti a tupé lži, nikoliv pro účinnou rafinovanost. Význam fotky lze v rámci tvůrčího procesu posouvat řadou cest, od volby námětu přes kompozici až po vynechání věcí, které jsme se rozhodli nevyfotit.

Intuitivně to dochází každému, kdo někdy držel v ruce fotoaparát. A pokud by snad někdo o pravdivosti fotografie stále neměl pochybnosti, musel je získat nejpozději při přechodu na digitální systémy. Stallabrass k tomu dodává, že i ona obávaná AI nám fotky nepozorovaně upravuje již dlouhá léta – foťáky ve smartphonech by se neobešly bez strojového „domýšlení“ při přibližování či vyhlazování záběru a už více než dekádu také víme o existenci nespočtu zkrášlovacích filtrů, které rovněž využívají AI technologie.

Samotná technologie fotografie a proces pořizování snímků už nás tedy neodvratně posouvají od nezkalené reality někam jinam. Ještě mnohem důležitější je ale kontext, ve kterém je fotka následně šířena a vysvětlována, a kde se zase otevírá široké pole k manipulacím.

Blogerka Julia Kieserman k tomu podotýká, že nejen na úrovni rodinné fotografie, ale i u profesionálního reportérství je každý snímek vždy pořizován s nějakým záměrem, ať už je to propagace politického názoru či osobního uměleckého výrazu, odhalování nepravostí nebo touha někoho oslnit, a nikdy nemůže jít o neosobní svědectví o realitě.

Cesty, kterými jsou informace zpracovávány a zkreslovány v mediálním provozu, snad ani není třeba rozebírat, a moc si nepomůžeme ani v případě, kdy opustíme klasická masmédia a zabředneme do vod sociálních sítí – i tam je vždy šíření fotek vedeno nějakým záměrem a nemůže jít o neutrální dokumentaci.

Na mysli tak vyvstává trefný citát komiksového tvůrce Arta Spiegelmana, který byl osočován, že jeho zachycení závažných událostí typu holocaustu nebo útoků z 11. září prostřednictvím komiksu je jaksi málo objektivní a realistické a tím i méně důvěryhodné. Kritikům oponoval s tím, že pokrytecká objektivita spojovaná s fotoaparátem je stejná lež jako to, že je psaní ve třetí osobě více objektivní než v první. Komunikace prostřednictvím komiksu alespoň hraje s otevřenými kartami, nevyhnutelné zkreslení dává otevřeně na odiv a ukazuje, že tu jsou i jiné úrovně sdělení než ta zcela povrchní.

Pokud tento postřeh vztáhneme na současnou situaci, můžeme dojít k domněnce, že se intuitivní nedůvěra ve fotografii posune až do stavu, kdy ji budeme chápat stejně jako kreslenou ilustraci. Stallabras to ve zmiňované eseji rozvádí postřehem, že fotografie přestala existovat jako svébytné médium s technologickou definicí (obraz vznikající dopadem světla na film nebo čip) a stává se z ní spíše jen estetický styl obrazu, tedy něco jako „obrazy připomínající výstupy z analogových či digitálních fotoaparátů“. Není na tom nic špatného, a můžeme předpokládat, že si na toto nové schéma lidé zvyknou.

Nechme si to vysvětlit

Paniku z údajného „rozbití reality“ v důsledku AI obrazových manipulací lze kromě exkurzu do historie fotografie utišit i jinou cestou. Proroci informačního chaosu totiž velmi často zapomínají na to, jak vlastně dezinformace fungují, kde se berou a kdo a proč je konzumuje.

I koloběh dezinformací se řídí principem nabídky a poptávky. Rozjíždět rozsáhlé politické intriky pomocí AI upravených snímků je zbytečná práce již proto, že vizuálních či textových lží a manipulací je plný internet a fungují velmi efektivně i bez toho, aniž by někdo musel přistoupit k přímé AI „retuši“.

Jakýkoliv „reálný“ snímek lze snadno zasadit do jiného kontextu (to jsou všechny ty fotky starých demonstrací, útoků či katastrof lživě označované za jiné současné události). Fotografie jako „důkaz o realitě“ nedává smysl v situaci, kdy lidé věří nejrůznějším smyšlenkám i navzdory naprosto jasným vizuálním důkazům (co si asi myslí stoupenci placaté Země o snímcích planety z vesmíru?).

Žádná fotka či videozáznam také nemůže být respektována jako realita bez toho, aniž by publikum mělo důvěru v člověka či médium, které ji šíří. Proto tu máme širokou nabídku „alternativních“ zdrojů útočících na údajně prolhaná mainstreamová média. AI manipulace vůbec nejsou potřeba, a to ani v situaci, kdy je lze jednoduše vytvořit několika kliky v nové aplikaci.

Dobrým čtením je v tomto ohledu esej Jonathana Teubnera a Paula Gleasona, kteří upozorňují, že spousta současných bojovníků s dezinformacemi zapomíná na zásadní věc. Bůhvíproč jsme začali pojmy dezinformace či fake news spojovat se lží, jenže kvalitní propaganda nikdy nelže (vystavila by se snadnému znevěrohodnění) a pracuje jen s nezpochybnitelnou realitou a fakty – jen šikovně vybranými a zasazenými do kontextu. Použít AI retuš v politickém boji nedává smysl, protože je to zbytečné riziko a někdo by to rychle odhalil. Jednodušší a léty prověřená metoda je prostě pracovat s pravdivými informacemi a překrucovat je pro své záměry.

AI obrazové manipulace jsou bezesporu závažné riziko, ale v úplně jiných oblastech, než je politika. Zmínit lze například zásadní problém s pornografickými deepfakes, jejichž obětí bývají relativně anonymní běžné ženy, které se mohou obrazové „pomluvě“ na rozdíl od vrcholných politiků jen obtížně bránit a čelí tak mnohem větším reputačním škodám.

AI také usnadňuje tvorbu komerčního spamu a řada autorů tak v poslední době varuje, že největším rizikem pro současný informační ekosystém je zcela apolitický AI „slop“ (česky bychom mohli přeložit jako pomyje), který jen sbírá kliky a láká na internetové podvody.

Když šiřitelé aktuální morální paniky vykřikují, že „teď už nikdo nebude vědět, co je pravda“, prozrazují tím nejen své mezery ve znalostech fungování a principů fotografie, ale také určité zažité předsudky o svých spoluobčanech.

Jednoduše řečeno, bojí se jakéhosi imaginárního tupého stáda, které jen zírá na lživé internetové obrázky a pak se nechá snadno přesvědčit, aby proti svému nejlepšímu zájmu volilo pro nějakého zlého populistu a manipulátora (výzkumy mimochodem ukazují, že schopnost rozeznat fake news výrazně přeceňujeme u sebe a podceňujeme u jiných). Je to bohužel dost rozšířená, ale zcela mylná představa, která nebere v potaz to, jak lidé skutečně přijímají, ověřují a chápou informace.

Dobře to ukazuje nedávná reportáž politického reportéra New Yorkeru Charlese Bethea, který se vypravil mezi tzv. neinformované voliče na americkém Jihu – tedy populační skupinu, která v očích mnoha elitních komentátorů jen čeká na to, až ji Trump přetáhne na svou stranu pomocí zmanipulovaných AI obrázků. Bethea ovšem narazil na situaci, která je už celé dekády známá všem mediálním teoretikům – lidé si složité informace nevykládají individuálně (protože většinou tuší, že jim na to chybí rozhled a vzdělání), ale nechávají si je vysvětlit respektovanými autoritami, ať už je to rodinný příslušník, kamarád, kněz, starosta, nebo třeba populární online influencer.

Neznamená to, že by nešlo o rizikovou situaci – podtrhuje to nebezpečný vliv radikálních youtuberů, podcasterů a dalších alternativních autorit, kteří podrývají důvěru v klasická média a společenské instituce. Vyvrací to ovšem obavu, že by někdo jen tak náhodně na sociálních sítích uviděl lživý obrázek, spolknul ho a automaticky by mu v hlavě něco přeskočilo.

Ve většině komunikačních situací spoléháme na „prověřené“ autority a kolektivní inteligenci, což sice nemusí vždy vést k dobrým koncům, ale opět to ukazuje, že minimálně v politickém boji nejsou AI manipulace takový problém, protože po nich není poptávka a navíc jsou méně efektivní než jiné osvědčené metody propagandy.

Digitální hygiena

Ukázala to i nedávná kauza, kdy se při hurikánu a povodních v americké Severní Karolíně objevily falešné AI snímky včetně dojemné fotky malé holčičky brodící se záplavami. Řada novinářů to považovala za důkaz nebezpečnosti AI obrázků (případ obšírně popsal třeba web 404 Media) a s gustem se vysmála zejména republikánské političce Amy Kremer. Ta uslzenou fotku nejprve sdílela, a když byla upozorněna na její AI původ, odmítla ji smazat s tím, že snímek na každý pád „vystihuje trauma a bolest lidí“ čelících klimatické katastrofě. Jinými slovy, použila ono okřídlené české „není to pravda, ale mohla by být“.

Není to tak pitomý výrok, jak by se mohlo na první pohled zdát. Ve skutečnosti totiž docela dobře vystihuje způsob, jakým k vizuálním informacím budeme nejspíš čím dál častěji přistupovat, a na kterém nemusí nutně být nic špatného. Záleží totiž na kontextu.

Pokud byla neexistující holčička sdílena jen v neutrálním kontextu (např. s popiskem „Je to hrozná katastrofa“), de facto snímek fungoval jako ilustrace a pohoršovat se můžeme maximálně nad tím, jak jeho prostřednictvím sbírají lajky vychytralí provozovatelé spamových facebookových skupin. Když ovšem snímek dostal politické rámování („Za tohle může naše vláda“), dostal se do jiného kontextu, názorová protistrana zpozorněla a fotku někdo obratem zpochybnil jako AI montáž – zafungovala tedy ona kolektivní inteligence, díky které odjakživa přežíváme v podmínkách informační nejistoty.

Jistě bychom neměli spoléhat jen na to, že si tyto obranné mechanismy vytvoříme samovolně, a bezesporu je potřeba podporovat a rozvíjet co nejdostupnější mediální vzdělávání pro všechny vrstvy populace. Tak jako tak si ale nejspíš časem vštípíme další zásady tzv. digitální hygieny.

Novinářka Kate Wagner to popsala výstižnou metaforou ze starších internetových časů. Digitální podvody, spam a manipulace tu byly vždy a kdekdo na ně naletěl. Postupem času si ale i ten nejtupější internetový uživatel zapamatoval, že když přijde na podivnou stránku plnou blikajících bannerů slibujících okamžitou milionovou výhru, nejspíš na ně není radno klikat.

Lze předpokládat, že úplně stejně se časem naučíme i opatrnosti v oblasti AI manipulací. Jistě to nebude jednoduchý proces, vedle respektovaných médií a institucí to posílí i roli samozvaných autorit a prohloubí společenské příkopy, ale i tak se nejspíš s touhle výzvou popereme úplně stejně jako se všemi předcházejícími – za přečtení v tomto směru stojí report o mediálních návycích mladých lidí z generace Z, kteří jdou často rovnou do diskuse pod článkem a tam si na základě kolektivního úsudku rychle udělají představu o důvěryhodnosti a kontextu dané informace.

Kromě jiného se možná naučíme, že už neexistuje jen jeden druh fotografie, a začneme rozlišovat mezi různými módy fotek. V běžných situacích je budeme chápat spíše jako ilustraci a brát je s rezervou úplně stejně, jako se nejspíš tehdejší čtenáři dívali na ilustrované zpravodajské magazíny v 19. století. A v případech, kde je nutně potřeba věrohodný autentický záznam (kromě zpravodajství třeba v medicíně, strojírenství či pojišťovnictví), si pro fotky vytvoříme nové společenské i technologické ověřovací mechanismy, které sice budou komplikovat práci, ale zamezí těm největším rizikům.

AI obrazový brak je obrovským problémem kvůli tomu, že zapleveluje informační ekosystém, komplikuje vyhledávání a vykrádá práci lidských autorů. Vážným rizikem je i v situacích, kde je rozpoznání reality otázkou života a smrti (třeba při určování jedovatých hub), a v neposlední řadě nám může ošklivě vstoupit do osobního života jako v případě zmiňovaných deepfakes.

Zrovna v politice už jsme si ale bohužel vytvořili takové závěje účinných a dostupných možností a technik, jak sebou navzájem manipulovat, že umazávání státníků ze skupinových fotek nejspíš není věc, kvůli které bychom měli mít těžké spaní. Realita je výsledkem společenského konsenzu, a k jeho vytvoření či narušení je potřeba víc než jen fotky.

Pokud se vám ukázka z newsletteru Pod čarou líbila, přihlaste se k odběru. Každou sobotu ho dostanete přímo do vašeho e-mailu, včetně tipů na další zajímavé čtení z českých i zahraničních médií.

RELATED ARTICLES
- Advertisment -
Google search engine

Populární články

BLOG

Pod čarou: Fotky nikdy nebyly realita. AI na tom nic nemění

V newsletteru Pod čarou popisuje každou sobotu Matouš Hrdina společenské trendy, které sice vídáme všude kolem sebe, ale v přílivu každodenního zpravodajství trochu zanikají mezi řádky. Pokud vás ukázka zaujme, přihlaste se k odběru plné verze newsletteru.

V médiích nedávno proletěla zpráva, že se Donald Trump znovu vrátil na místo nepovedeného atentátu ve městě Butler v Pensylvánii a uspořádal tam velkolepý mítink. Musel jsem chvíli přemýšlet, o který atentát na Trumpa vlastně šlo (došlo už ke dvěma pokusům). A pak mi došlo, jak moc už jsme tuto nepochybně závažnou událost vypustili z paměti.

Kulka škrtla o ucho prezidentského kandidáta 13. července, ale zdá se, jako by to byla dávná minulost. A v kolektivní paměti už také vybledla fotka, kterou vzápětí po střelbě pořídil reportér agentury AP Evan Vucci a která byla zcela po právu označována za ikonický snímek.

Takřka renesanční kompozice Trumpa se zakrvácenou tváří a vzdorovitě vztyčenou pěstí obklopeného bodyguardy a americkou vlajkou v mnohém připomíná slavné fotky dokumentující přelomové události 20. století. Ocitla se i na titulce časopisu Time, ale na rozdíl od popálené vietnamské holčičky, Aldrina na Měsíci nebo vztyčování vlajky na Iwodžimě nabrala v mediálním ekosystému úplně jinou trajektorii – jednoduše řečeno, po pár měsících už si na ni nikdo nevzpomene.

Reportážní a dokumentární fotografie už v médiích nehrají zdaleka takovou roli jako kdysi. Prestižní světová média a agentury sice stále najímají špičkové fotoreportéry, kteří si každoročně rozdají ceny a uspořádají oceňované výstavy, ale jde o velmi okrajový obor. V době, kdy má téměř každý ve svém smartphonu ukrytý i výkonný foťák s kamerou a internet je přesycen obrazovým materiálem všeho druhu, ztrácejí sebevíce ikonické snímky atraktivitu i sílu dopadu na veřejné mínění.

Připomněl to i nedávný film Civil War, ve kterém režisér Alex Garland vykresluje dramatické putování party profesionálních válečných fotografů a filmařů skrze fiktivní občanskou válku v USA. Je to sice relativně povedený snímek se spoustou trefných politických komentářů, ale jeho základní premisa je naivní anachronismus.

Poslechněte si audioverzi newsletteru načtenou autorem.

Z takového konfliktu (jak to každodenně vidíme v jiných částech světa) by zcela jistě přicházelo takové množství působivých a šokujících amatérských fotek a videa, že by většina médií o precizní profesionální snímky neměla zájem, a cyničtí, životem ošlehaní reportéři pořizující pod palbou atmosférické černobílé momentky působí jako návštěvníci ze 40. let minulého století.

Mohlo by se zdát, že jde o škodlivý proces, kterému bychom se měli bránit. Ikonické fotky přece pomáhaly v boji za mír a lidská práva, podporovaly nejrůznější občanská hnutí a utužovaly kolektivní identitu, soudržnost a historickou paměť národů i celého lidstva.

Slábnoucí roli profesionální reportážní fotografie ale můžeme vnímat i pozitivně. V době, kdy sílí obavy z možných manipulací a lží šířených prostřednictvím stále věrnějších AI obrázků, totiž ukazuje, že moc obrazu zase není tak velká a nemusíme propadat panice.

Kapesní továrna na lži?

Debata o možných rizicích obrazů produkovaných AI generátory už se vede několik let. Nové kolo paniky se ale roztočilo letos v srpnu poté, co Google představil nový telefon Pixel 9.

Jeho aplikace pro editování fotek Magic Editor umožňuje pomocí AI z fotek jednoduše odstraňovat nežádoucí lidi a objekty, nebo tam naopak něco přidávat, a to tak, že je výsledek běžným pohledem k nerozpoznání od reality (detaily pro Seznam Zprávy popisoval Pavel Kasík). Rozhodně to není první nástroj, který by využíval AI k úpravám a retuši obrazu, ale díky své jednoduchosti a přesvědčivosti rychle upoutal pozornost a znepokojené komentáře na sebe nenechaly dlouho čekat.

Příkladem může být hojně sdílený text, který sepsala Sarah Jeong pro web The Verge. Tvrdí, že lidé fotografii až donedávna brali jako „reprezentaci pravdy“, a dosavadní metody manipulace fotek odbývá s tím, že byly příliš pracné a málo časté. Teď se podle ní změní základní očekávání, lidé budou fotky automaticky považovat za „lež“ místo „pravdy“, a ještě zesílí vlna dezinformací. A stejně jako jiní kritici, i Jeong se obává, že nás tyto nové nástroje připraví o vzpomínky.

Opakuje výroky představitelů Googlu, kteří tvrdí, že si teď uživatelé budou moci vytvořit nové autentické vzpomínky „tak, jak si je pamatují“, i když to možná nebude úplně odpovídat realitě. Na první pohled to zní dystopicky a nebezpečně, ale ve skutečnosti je to jen fráze, která nepopisuje nic nového a odpovídá dosavadní situaci.

I „opravdová“ fotka vlepená do rodinného alba je vždy nevyhnutelně jen stylizovaný výsek reality, který jsme se rozhodli zachytit (a jiné vynechat). A když si náhodou do cestovatelského deníku místo fotky načrtneme obrázek, asi by nás také nikdo neosočil, že si vytváříme falešné vzpomínky. Každý snímek navíc existuje v kontextu a prohlížení rodinného alba se neobjede bez vyprávění někoho, kdo snímky komentuje a dodává k nim další informace. A úplně stejně to funguje i u jakéhokoliv jiného druhu fotografie včetně té zpravodajské v masmédiích.

Základní premisa aktuální morální paniky – tedy že „falešné“ AI fotografie vyvolají chaos a nahlodají sdílenou realitu – nedává smysl, protože fotografie nikdy nebyla žádným přímým a objektivním záznamem reality. Poplašné zprávy o nových kapesních strojích na dezinformace ignorují hned několik důležitých skutečností najednou. Neberou ohled na historii a společenskou roli fotografie, neřeší cesty, kterými lidé přijímají a vykládají (dez)informace, a také přehlížejí již existující situace, ve kterých jsme se začali prát s manipulativním potenciálem AI.

Nejisté obrazy reality

Historie fotografie ukazuje, že nikdy nešlo o médium, které by odborníci i široká veřejnost považovali za automaticky věrný a pravdivý záznam reality. Julian Stallabrass v povedené eseji pro New Left Review konstatuje, že k novému vynálezu nejdřív lidé přistupovali s krajní nedůvěrou a již od začátku bylo jasné, že je to technologie náchylná k různým manipulacím.

Ty přitom nemusely spočívat jen v násilné přímé retuši a upravování negativu či výsledného snímku, ale nabízely se i mnohem sofistikovanější cesty. Jeong a další kritici varující před manipulativním potenciálem AI často zmiňují např. známé umazávání Stalinových spolupracovníků ze společných fotek při čistkách ve 30. letech, ale nedochází jim, že tento příklad je slavný právě kvůli své nepovedenosti a tupé lži, nikoliv pro účinnou rafinovanost. Význam fotky lze v rámci tvůrčího procesu posouvat řadou cest, od volby námětu přes kompozici až po vynechání věcí, které jsme se rozhodli nevyfotit.

Intuitivně to dochází každému, kdo někdy držel v ruce fotoaparát. A pokud by snad někdo o pravdivosti fotografie stále neměl pochybnosti, musel je získat nejpozději při přechodu na digitální systémy. Stallabrass k tomu dodává, že i ona obávaná AI nám fotky nepozorovaně upravuje již dlouhá léta – foťáky ve smartphonech by se neobešly bez strojového „domýšlení“ při přibližování či vyhlazování záběru a už více než dekádu také víme o existenci nespočtu zkrášlovacích filtrů, které rovněž využívají AI technologie.

Samotná technologie fotografie a proces pořizování snímků už nás tedy neodvratně posouvají od nezkalené reality někam jinam. Ještě mnohem důležitější je ale kontext, ve kterém je fotka následně šířena a vysvětlována, a kde se zase otevírá široké pole k manipulacím.

Blogerka Julia Kieserman k tomu podotýká, že nejen na úrovni rodinné fotografie, ale i u profesionálního reportérství je každý snímek vždy pořizován s nějakým záměrem, ať už je to propagace politického názoru či osobního uměleckého výrazu, odhalování nepravostí nebo touha někoho oslnit, a nikdy nemůže jít o neosobní svědectví o realitě.

Cesty, kterými jsou informace zpracovávány a zkreslovány v mediálním provozu, snad ani není třeba rozebírat, a moc si nepomůžeme ani v případě, kdy opustíme klasická masmédia a zabředneme do vod sociálních sítí – i tam je vždy šíření fotek vedeno nějakým záměrem a nemůže jít o neutrální dokumentaci.

Na mysli tak vyvstává trefný citát komiksového tvůrce Arta Spiegelmana, který byl osočován, že jeho zachycení závažných událostí typu holocaustu nebo útoků z 11. září prostřednictvím komiksu je jaksi málo objektivní a realistické a tím i méně důvěryhodné. Kritikům oponoval s tím, že pokrytecká objektivita spojovaná s fotoaparátem je stejná lež jako to, že je psaní ve třetí osobě více objektivní než v první. Komunikace prostřednictvím komiksu alespoň hraje s otevřenými kartami, nevyhnutelné zkreslení dává otevřeně na odiv a ukazuje, že tu jsou i jiné úrovně sdělení než ta zcela povrchní.

Pokud tento postřeh vztáhneme na současnou situaci, můžeme dojít k domněnce, že se intuitivní nedůvěra ve fotografii posune až do stavu, kdy ji budeme chápat stejně jako kreslenou ilustraci. Stallabras to ve zmiňované eseji rozvádí postřehem, že fotografie přestala existovat jako svébytné médium s technologickou definicí (obraz vznikající dopadem světla na film nebo čip) a stává se z ní spíše jen estetický styl obrazu, tedy něco jako „obrazy připomínající výstupy z analogových či digitálních fotoaparátů“. Není na tom nic špatného, a můžeme předpokládat, že si na toto nové schéma lidé zvyknou.

Nechme si to vysvětlit

Paniku z údajného „rozbití reality“ v důsledku AI obrazových manipulací lze kromě exkurzu do historie fotografie utišit i jinou cestou. Proroci informačního chaosu totiž velmi často zapomínají na to, jak vlastně dezinformace fungují, kde se berou a kdo a proč je konzumuje.

I koloběh dezinformací se řídí principem nabídky a poptávky. Rozjíždět rozsáhlé politické intriky pomocí AI upravených snímků je zbytečná práce již proto, že vizuálních či textových lží a manipulací je plný internet a fungují velmi efektivně i bez toho, aniž by někdo musel přistoupit k přímé AI „retuši“.

Jakýkoliv „reálný“ snímek lze snadno zasadit do jiného kontextu (to jsou všechny ty fotky starých demonstrací, útoků či katastrof lživě označované za jiné současné události). Fotografie jako „důkaz o realitě“ nedává smysl v situaci, kdy lidé věří nejrůznějším smyšlenkám i navzdory naprosto jasným vizuálním důkazům (co si asi myslí stoupenci placaté Země o snímcích planety z vesmíru?).

Žádná fotka či videozáznam také nemůže být respektována jako realita bez toho, aniž by publikum mělo důvěru v člověka či médium, které ji šíří. Proto tu máme širokou nabídku „alternativních“ zdrojů útočících na údajně prolhaná mainstreamová média. AI manipulace vůbec nejsou potřeba, a to ani v situaci, kdy je lze jednoduše vytvořit několika kliky v nové aplikaci.

Dobrým čtením je v tomto ohledu esej Jonathana Teubnera a Paula Gleasona, kteří upozorňují, že spousta současných bojovníků s dezinformacemi zapomíná na zásadní věc. Bůhvíproč jsme začali pojmy dezinformace či fake news spojovat se lží, jenže kvalitní propaganda nikdy nelže (vystavila by se snadnému znevěrohodnění) a pracuje jen s nezpochybnitelnou realitou a fakty – jen šikovně vybranými a zasazenými do kontextu. Použít AI retuš v politickém boji nedává smysl, protože je to zbytečné riziko a někdo by to rychle odhalil. Jednodušší a léty prověřená metoda je prostě pracovat s pravdivými informacemi a překrucovat je pro své záměry.

AI obrazové manipulace jsou bezesporu závažné riziko, ale v úplně jiných oblastech, než je politika. Zmínit lze například zásadní problém s pornografickými deepfakes, jejichž obětí bývají relativně anonymní běžné ženy, které se mohou obrazové „pomluvě“ na rozdíl od vrcholných politiků jen obtížně bránit a čelí tak mnohem větším reputačním škodám.

AI také usnadňuje tvorbu komerčního spamu a řada autorů tak v poslední době varuje, že největším rizikem pro současný informační ekosystém je zcela apolitický AI „slop“ (česky bychom mohli přeložit jako pomyje), který jen sbírá kliky a láká na internetové podvody.

Když šiřitelé aktuální morální paniky vykřikují, že „teď už nikdo nebude vědět, co je pravda“, prozrazují tím nejen své mezery ve znalostech fungování a principů fotografie, ale také určité zažité předsudky o svých spoluobčanech.

Jednoduše řečeno, bojí se jakéhosi imaginárního tupého stáda, které jen zírá na lživé internetové obrázky a pak se nechá snadno přesvědčit, aby proti svému nejlepšímu zájmu volilo pro nějakého zlého populistu a manipulátora (výzkumy mimochodem ukazují, že schopnost rozeznat fake news výrazně přeceňujeme u sebe a podceňujeme u jiných). Je to bohužel dost rozšířená, ale zcela mylná představa, která nebere v potaz to, jak lidé skutečně přijímají, ověřují a chápou informace.

Dobře to ukazuje nedávná reportáž politického reportéra New Yorkeru Charlese Bethea, který se vypravil mezi tzv. neinformované voliče na americkém Jihu – tedy populační skupinu, která v očích mnoha elitních komentátorů jen čeká na to, až ji Trump přetáhne na svou stranu pomocí zmanipulovaných AI obrázků. Bethea ovšem narazil na situaci, která je už celé dekády známá všem mediálním teoretikům – lidé si složité informace nevykládají individuálně (protože většinou tuší, že jim na to chybí rozhled a vzdělání), ale nechávají si je vysvětlit respektovanými autoritami, ať už je to rodinný příslušník, kamarád, kněz, starosta, nebo třeba populární online influencer.

Neznamená to, že by nešlo o rizikovou situaci – podtrhuje to nebezpečný vliv radikálních youtuberů, podcasterů a dalších alternativních autorit, kteří podrývají důvěru v klasická média a společenské instituce. Vyvrací to ovšem obavu, že by někdo jen tak náhodně na sociálních sítích uviděl lživý obrázek, spolknul ho a automaticky by mu v hlavě něco přeskočilo.

Ve většině komunikačních situací spoléháme na „prověřené“ autority a kolektivní inteligenci, což sice nemusí vždy vést k dobrým koncům, ale opět to ukazuje, že minimálně v politickém boji nejsou AI manipulace takový problém, protože po nich není poptávka a navíc jsou méně efektivní než jiné osvědčené metody propagandy.

Digitální hygiena

Ukázala to i nedávná kauza, kdy se při hurikánu a povodních v americké Severní Karolíně objevily falešné AI snímky včetně dojemné fotky malé holčičky brodící se záplavami. Řada novinářů to považovala za důkaz nebezpečnosti AI obrázků (případ obšírně popsal třeba web 404 Media) a s gustem se vysmála zejména republikánské političce Amy Kremer. Ta uslzenou fotku nejprve sdílela, a když byla upozorněna na její AI původ, odmítla ji smazat s tím, že snímek na každý pád „vystihuje trauma a bolest lidí“ čelících klimatické katastrofě. Jinými slovy, použila ono okřídlené české „není to pravda, ale mohla by být“.

Není to tak pitomý výrok, jak by se mohlo na první pohled zdát. Ve skutečnosti totiž docela dobře vystihuje způsob, jakým k vizuálním informacím budeme nejspíš čím dál častěji přistupovat, a na kterém nemusí nutně být nic špatného. Záleží totiž na kontextu.

Pokud byla neexistující holčička sdílena jen v neutrálním kontextu (např. s popiskem „Je to hrozná katastrofa“), de facto snímek fungoval jako ilustrace a pohoršovat se můžeme maximálně nad tím, jak jeho prostřednictvím sbírají lajky vychytralí provozovatelé spamových facebookových skupin. Když ovšem snímek dostal politické rámování („Za tohle může naše vláda“), dostal se do jiného kontextu, názorová protistrana zpozorněla a fotku někdo obratem zpochybnil jako AI montáž – zafungovala tedy ona kolektivní inteligence, díky které odjakživa přežíváme v podmínkách informační nejistoty.

Jistě bychom neměli spoléhat jen na to, že si tyto obranné mechanismy vytvoříme samovolně, a bezesporu je potřeba podporovat a rozvíjet co nejdostupnější mediální vzdělávání pro všechny vrstvy populace. Tak jako tak si ale nejspíš časem vštípíme další zásady tzv. digitální hygieny.

Novinářka Kate Wagner to popsala výstižnou metaforou ze starších internetových časů. Digitální podvody, spam a manipulace tu byly vždy a kdekdo na ně naletěl. Postupem času si ale i ten nejtupější internetový uživatel zapamatoval, že když přijde na podivnou stránku plnou blikajících bannerů slibujících okamžitou milionovou výhru, nejspíš na ně není radno klikat.

Lze předpokládat, že úplně stejně se časem naučíme i opatrnosti v oblasti AI manipulací. Jistě to nebude jednoduchý proces, vedle respektovaných médií a institucí to posílí i roli samozvaných autorit a prohloubí společenské příkopy, ale i tak se nejspíš s touhle výzvou popereme úplně stejně jako se všemi předcházejícími – za přečtení v tomto směru stojí report o mediálních návycích mladých lidí z generace Z, kteří jdou často rovnou do diskuse pod článkem a tam si na základě kolektivního úsudku rychle udělají představu o důvěryhodnosti a kontextu dané informace.

Kromě jiného se možná naučíme, že už neexistuje jen jeden druh fotografie, a začneme rozlišovat mezi různými módy fotek. V běžných situacích je budeme chápat spíše jako ilustraci a brát je s rezervou úplně stejně, jako se nejspíš tehdejší čtenáři dívali na ilustrované zpravodajské magazíny v 19. století. A v případech, kde je nutně potřeba věrohodný autentický záznam (kromě zpravodajství třeba v medicíně, strojírenství či pojišťovnictví), si pro fotky vytvoříme nové společenské i technologické ověřovací mechanismy, které sice budou komplikovat práci, ale zamezí těm největším rizikům.

AI obrazový brak je obrovským problémem kvůli tomu, že zapleveluje informační ekosystém, komplikuje vyhledávání a vykrádá práci lidských autorů. Vážným rizikem je i v situacích, kde je rozpoznání reality otázkou života a smrti (třeba při určování jedovatých hub), a v neposlední řadě nám může ošklivě vstoupit do osobního života jako v případě zmiňovaných deepfakes.

Zrovna v politice už jsme si ale bohužel vytvořili takové závěje účinných a dostupných možností a technik, jak sebou navzájem manipulovat, že umazávání státníků ze skupinových fotek nejspíš není věc, kvůli které bychom měli mít těžké spaní. Realita je výsledkem společenského konsenzu, a k jeho vytvoření či narušení je potřeba víc než jen fotky.

Pokud se vám ukázka z newsletteru Pod čarou líbila, přihlaste se k odběru. Každou sobotu ho dostanete přímo do vašeho e-mailu, včetně tipů na další zajímavé čtení z českých i zahraničních médií.

RELATED ARTICLES