OpenAI uznávaný pro svůj inovativní chatbot s umělou inteligencí, ChatGPT, nyní aktivně spolupracuje s ministerstvem obrany Spojených států (DOD). Toto strategické partnerství má za cíl vyvinout pokročilé nástroje a služby pro vojenský sektor. Spolupráce, zdůrazněná nedávnou zprávou Bloomberg, představuje významný klíčový bod v politice OpenAI, přičemž společnost nedávno upravila své podmínky služby tak, aby povolovala aplikace v oblasti „vojenství a válčení“, což je odklon od jejího předchozího postoje.

Spolupráce je zejména součástí AI Cyber ​​Challenge (AIxCC), kterou představila Agentura pro pokročilé obranné výzkumné projekty (DARPA) na konci předchozího roku. Tato iniciativa sjednotila přední společnosti zabývající se umělou inteligencí, jako jsou Anthropic, Google, Microsoft a OpenAI, s DARPA. Cílem je spojit jejich pokročilé technologie a odborné znalosti, aby účastníci mohli vytvářet špičkové systémy kybernetické bezpečnosti a posilovat národní obranné mechanismy.

Etický postoj OpenAI a závazek vůči společnosti

I když se OpenAI pouští do vojenské spolupráce, zachovává si pevný etický postoj. Viceprezidentka globálních záležitostí společnosti Anna Makanju objasnila, že navzdory novým partnerstvím jsou technologie OpenAI stále zakázány pro vývoj zbraní, ničení majetku nebo poškozování jednotlivců. Tato odlišná pozice uznává potenciál AI při podpoře obranných mechanismů a zároveň zajišťuje, že její aplikace je v souladu s etickými a humanitárními standardy.

OpenAI se navíc zapojuje do diskusí s americkou vládou s cílem využít svou technologii při řešení kritických společenských problémů, jako je prevence sebevražd veteránů. Tyto iniciativy odrážejí odhodlání OpenAI využívat umělou inteligenci pro pozitivní společenský dopad, který přesahuje pouhé technologické pokroky.

Ostražitost před dezinformacemi a volební integrita

V oblasti integrity informací, zejména pokud jde o volby, přijímá OpenAI proaktivní opatření. Sam Altman, generální ředitel OpenAI, zdůraznil důležitost zabezpečení volebních procesů, což odráží závazek společnosti předcházet zneužívání AI při šíření dezinformací. Tento postoj je zvláště relevantní ve světle nedávných incidentů týkajících se AI Bing společnosti Microsoft, která čelila obvinění z poskytování nepřesných odpovědí ohledně voleb v roce 2023.

V reakci na rostoucí obavy ohledně autenticity digitálního obsahu představil Microsoft inovativní nástroj pro detekci deepfake. Tento nástroj je navržen tak, aby pomohl politickým stranám ověřit pravost jejich digitálního obsahu, jako jsou reklamy a videa, a zajistit, aby zůstaly nezměněny technologiemi AI.