Luise Freese a Iona Varga se v diskusi na NDC Oslo, která vyvolala zamyšlení, ponořili do praktických dilemat kolem používání modelů umělé inteligence (AI), zejména v kontextu generování kódu. Zatímco umělá inteligence dosáhla významného pokroku v napodobování lidské inteligence, Freese a Varga zdůraznili důležitost dosažení rovnováhy mezi praktičností a kvalitou při využívání umělé inteligence pro specifické úkoly, jako je generování kódu.

Varga upozornil na zajímavý koncept, který AI naznačuje smysl pro skutečnou inteligenci, ale jeho podstata spočívá v reprezentaci toho, jak jsou tyto modely konstruovány. Propojením uzlů se AI snaží replikovat spletitou síť neuronů a synapsí v lidském mozku. Tato snaha napodobit neuronovou síť vede k termínu „umělé sítě“ nebo „umělá inteligence“. Je však důležité si uvědomit, že AI v praxi funguje zcela odlišně od lidského mozku.

Freese přidal do konverzace vrstvu abstrakce, když zdůraznil, že počítače v zásadě spoléhají na tranzistory, které fungují binárně – jsou buď zapnuté, nebo vypnuté. Prostřednictvím různých kombinací těchto binárních stavů počítače manipulují s bity, aby prováděly úkoly. Na rozdíl od lidského mozku se tranzistory nezapojují do složitých propletenců; fungují pouze jako soubor přepínačů, které nakonec přinesou výsledek.

Klesající spirála obecných modelů umělé inteligence

Jádro diskuse se točilo kolem výzev, které přináší používání zobecněných modelů umělé inteligence, často označovaných jako základní modely, pro vysoce specifické úkoly. Duo konkrétně zkoumalo velké jazykové modely (LLM) a jejich omezení. LLM fungují tak, že analyzují vstup, ať už jde o otázku nebo výzvu, a generují posloupnost slov na základě statistických vzorů. Tyto modely vynikají v predikci, ale zaostávají, pokud jde o ověřování a ověřování faktů, protože jejich primárním cílem návrhu je generovat obsah, nikoli ověřovat jeho přesnost.

Varga poukázal na kritickou obavu: riziko spojené s používáním velmi obecných modelů umělé inteligence pro vysoce specializované úkoly. Když se organizace pokusí použít jediný model umělé inteligence k řešení široké řady problémů, objeví se znepokojivý vzorec. Freese to přirovnal k samozesilující sestupné spirále. Aby se vyhnul tomuto cyklu, Freese navrhl posun k používání specializovanějších modelů umělé inteligence, z nichž některé by mohly být postaveny na základních modelech.

Role lidského úsudku při hodnocení kódu

Jedním z ústředních problémů, který z diskuse vyplynul, byla otázka, zda je použití kódu generovaného umělou inteligencí bezpečné a zda splňuje požadované standardy a kvalitu. Varga zdůraznil, že tyto otázky v konečném důsledku vyžadují lidský úsudek a zásah. Proces vyhodnocování kódu generovaného umělou inteligencí by se neměl podceňovat, protože je paralelní s problémy spojenými s laděním neznámého kódu napsaného někým jiným. Stejně jako může být ladění kódu někoho jiného složité, zajištění kvality a bezpečnosti kódu generovaného umělou inteligencí vyžaduje pečlivou kontrolu.

Varga zdůraznil potenciál umělé inteligence jako cenného nástroje pro zahájení procesů řešení problémů. Upozornila však, že jakmile je umělá inteligence uvedena do pohybu, vyžaduje důkladnou fázi následného zpracování. Tato fáze zahrnuje kontrolu, ověřování, úpravy, úpravy a v některých případech i přepisování obsahu generovaného AI. Právě v této zásadní fázi se ukazuje skutečný rozsah práce, kterou AI zavádí.

Diskuse na NDC Oslo 2023 v podstatě podtrhla křehkou rovnováhu potřebnou při využití výkonu modelů AI, zejména ve vysoce specializovaných doménách, jako je generování kódu. Zatímco umělá inteligence je ohromným příslibem jako pomůcka při řešení problémů, lidský dohled a ověřování zůstávají nepostradatelné pro zajištění kvality, bezpečnosti a relevance výstupu, který generuje.