Generativní umělá inteligence v politických kampaních

V nejnovějších technologických zprávách začaly Microsoft a Google školit politické kampaně na používání generativních nástrojů umělé inteligence, jako jsou chatboti Copilot a Gemini. Od začátku roku 2024 se těchto zasedání účastnily desítky politických skupin, které se učily využívat umělou inteligenci k zefektivnění úkolů, jako je psaní a úprava e-mailů a textových zpráv pro získávání finančních prostředků.

Tyto školicí programy, kterých se jen v USA zúčastnilo více než 600 účastníků, mají za cíl pomoci kampaním ušetřit čas a snížit náklady, podobně jako by to udělal jakýkoli malý podnik.

Snižování rizik a podpora ověřování

I když tyto nástroje AI nabízejí významné výhody, představují také rizika. Microsoft a Google začlenily lekce o ověřování obsahu do svých školení, aby zmírnily šíření dezinformací generovaných umělou inteligencí.

Techniky jako „content credentials“ společnosti Microsoft a SynthID společnosti Google mají za cíl označovat obsah vytvořený umělou inteligencí a zajistit autentičnost. Tato opatření jsou součástí širšího závazku velkých technologických společností zabránit tomu, aby jejich nástroje umělé inteligence přispívaly k narušení voleb.

Výzvy dezinformací generovaných umělou inteligencí

Navzdory těmto snahám přetrvávají problémy. Bidenova kampaň nedávno čelila lacinému falešnému skandálu zahrnujícímu zfalšované klipy, které šíří dezinformace o prezidentu Bidenovi. Takové incidenty podtrhují možnost zneužití nástrojů umělé inteligence v politickém kontextu.

I když se technologické společnosti zavázaly přijmout „rozumná opatření“, aby zabránily zneužití, žádná ze současných metod ověřování není spolehlivá. Copilot i Gemini se navíc potýkají se základními dotazy, jako je přesná identifikace vítěze prezidentských voleb v roce 2020, což vyvolává obavy o jejich spolehlivost.

Budoucnost AI ve volbách

Šest měsíců před volbami v roce 2024 poskytuje velká technologie nástroje i záruky pro AI v politických kampaních. Zajištění etického používání umělé inteligence a zabránění šíření dezinformací však může vyžadovat zásah vlády za účelem standardizace technologií ověřování.

Do té doby nese odpovědnost odvětví umělé inteligence, aby se vyvarovalo významných chyb při vytváření nebo odhalování škodlivého obsahu.