Chatboti s umělou inteligencí, jako je ChatGPT, obracejí hlavu po celém světě díky své lidské schopnosti diskutovat o jakémkoli tématu.

Nicméně zpráva Benje Edwardse pro Ars Technica, zveřejněná ve čtvrtek (6. dubna), zdůrazňuje hlavní nevýhodu: tito chatboti mohou neúmyslně šířit nepravdivé, ale přesvědčivé informace, což z nich činí nespolehlivé zdroje faktů a potenciální přispěvatele k pomluvě.

Edwards vysvětluje, že chatboti s umělou inteligencí, jako je ChatGPT od OpenAI, využívají ke generování odpovědí „velké jazykové modely“ (LLM). LLM jsou počítačové programy trénované na obrovském množství textových dat pro čtení a vytváření přirozeného jazyka. Jsou však náchylní k chybám, které se v akademických kruzích běžně nazývají „halucinace“ nebo „konfabulace“. Edwards preferuje „konfabulaci“, protože naznačuje kreativní, ale neúmyslné výmysly.

Článek Ars Technica podtrhuje problém robotů AI generujících klamavé, zavádějící nebo pomlouvačné informace. Edwards uvádí příklady ChatGPT nepravdivě obvinil profesora práva ze sexuálního obtěžování a neprávem tvrdil, že australský starosta byl odsouzen za úplatkářství. Navzdory těmto nevýhodám je ChatGPT považován za upgrade z GPT-3, protože může odmítnout odpovědět na určité otázky nebo varovat před potenciálními nepřesnostmi.

Generální ředitel OpenAI Sam Altman připustil omezení ChatGPT, tweetoval o jeho „neuvěřitelných“ omezeních a rizicích spoléhat se na něj v zásadních věcech. Altman také poznamenal, že chatbot má současné znalosti a zálibu být „jistý a špatný“.

Edwards se ponoří do jejich fungování, aby pochopil, jak se modely GPT, jako je ChatGPT, pletou. Výzkumníci vytvářejí LLM jako GPT-3 a GPT-4 pomocí „učení bez dozoru“, kde se model učí předpovídat další slovo v sekvenci analýzou rozsáhlých textových dat a zpřesňováním svých předpovědí pomocí pokusů a omylů.

ChatGPT se liší od svých předchůdců, protože byl trénován na přepisech konverzací psaných lidmi, říká Edwards. OpenAI použilo „posílení učení z lidské zpětné vazby“ (RLHF) k doladění ChatGPT, což vedlo k koherentnějším odpovědím a menšímu počtu konfabulací. Nicméně nepřesnosti zůstávají.

Edwards varuje před slepým důvěřováním výstupům chatbotů AI, ale uznává, že technologická vylepšení to mohou změnit. Od svého spuštění prošel ChatGPT několika aktualizacemi, které zvýšily přesnost a jeho schopnost odmítnout odpovídat na otázky, které nedokáže vyřešit.

Přestože OpenAI přímo neodpověděla na dotazy týkající se přesnosti ChatGPT, Edwards odkazuje na firemní dokumenty a zpravodajské zprávy. Hlavní vědec OpenAI, Ilya Sutskever, věří, že další školení RLHF může problém halucinací vyřešit. Ve stejné době, hlavní vědec Meta's AI, Yann LeCun, tvrdí, že současné LLM založené na GPT problém nevyřeší.

Edwards také zmiňuje alternativní metody pro zlepšení přesnosti LLM pomocí existujících architektur. Bing Chat a Google Bard již využívají vyhledávání na webu k upřesnění svých výstupů a očekává se, že verze ChatGPT pro prohlížeč bude následovat. Zásuvné moduly ChatGPT navíc plánují rozšířit tréninková data GPT-4 o externí zdroje, jako je web a specializované databáze. Jak Edwards zdůrazňuje, toto odráží zvýšení přesnosti, které člověk získá z konzultací v encyklopedii.

Nakonec Edwards navrhuje, že model podobný GPT-4 by mohl být trénován, aby rozpoznal, kdy vytváří informace, a podle toho se přizpůsobil. To může zahrnovat pokročilejší zpracování dat a propojení tréninkových dat se skóre „důvěry“, podobně jako u hodnocení PageRank. Další možností je doladit model tak, aby byl opatrnější, když si méně věří ve své reakce.

#Binance #GPT-4 #crypto2023 #keepbuilding #buildtogether