Inside the AI Rebellion Venice Is Building a Private Future

Venēcija nesen pārsniedza miljonu lietotāju — iespaidīgs sasniegums startupam, kas no nulles veido privātu, nesensurētu mākslīgo intelektu. Šajā intervijā ar Lorenzo Fränkel, Satura un komunikācijas vadītāju, mēs izpētām, kā Venēcija apšauba uzraudzības virzīto status quo galvenajās mākslīgā intelekta platformās, ko patiešām nozīmē "atļauju neprasoša inteliģence" un kā komanda veido nākotni, kurā lietotājiem nav jāmaina privātums pret veiktspēju.

Vai jūs, lūdzu, varat dalīties savā ceļojumā uz Web3?

Es iekļāvos Web3 2017. gadā. Pirmais kriptovalūtu, ko es jebkad iegādājos, bija Ethereum Coinbase, tāpēc esmu diezgan satraukts par došanos uz ECC. Tas bija mans pirmais ieejas punkts, bet es domāju, ka lielākajai daļai cilvēku ir nepieciešami divi uzsitiens, lai patiešām saprastu kaut ko. Man otro reizi bija 2019. gadā, kad es veicu savu pirmo maiņu Uniswap. Tieši tad tas patiešām noklikšķināja, saprotot, ka mēs veidojam atļauju neprasošu, decentralizētu finansēšanu un atņemam varu starpniekiem. Šis brīdis man padarīja misiju skaidru.

Kopš tā laika esmu strādājis pie vairākiem projektiem, tostarp Immutable Web3 spēļu jomā. Tad 2024. gada martā vai aprīlī es redzēju tvītu no Erika Voorhees, kurš meklēja izstrādātājus slepenam projektam. Es atbildēju, sakot, ka neesmu izstrādātājs, bet strādāju komunikācijā. Viņš tiešām man uzrakstīja, ko es sākotnēji uzskatīju par krāpšanu, jo tas ir Eriks Voorhees, viņš ir viens no lielākajiem vārdiem kriptovalūtu jomā. Bet tas tiešām bija viņš. Esmu runājis ar viņu un mūsu CEO, Teanu, un pievienojos komandai aprīlī.

Toreiz mēs bijām tikai apmēram 6–7 cilvēki. Tagad mēs esam vairāk nekā 25, un mēs tikko esam pārsnieguši 1 miljonu lietotāju, kas izmanto Venēciju privātam un bez cenzūras AI. Es tiešām saistījos ar šo misiju. Esmu bijis AI jaudīgs lietotājs gadiem, bet vienmēr jutos neērti par to, cik daudz informācijas mēs dalām ar šiem rīkiem. Venēcijas mērķis izveidot privātu, bez cenzūras AI man tiešām rezonēja.

Kāpēc ir nepieciešama privāta un bez cenzūras AI? Kas to atšķir no citām platformām?

Es domāju, ka mēs jau esam izdarījuši lielu kļūdu ar sociālajiem medijiem, un mēs esam uz robežas to atkārtot ar AI, izņemot to, ka likmes ir vēl augstākas. Personas, intīmā informācija, ko cilvēki dalās ar AI rīkiem, ir milzīga. Cilvēki izmanto AI kā kompanjonus, dzīves trenerus vai terapeitus, un viņi ne tikai dalās ar instrumentu, viņi dalās ar OpenAI, Google, Anthropic utt.

Mēs esam redzējuši, kā uzņēmumi izmanto datus, un tas nav tikai par to. Glabājot šādus datus, tie ir pakļauti hakeru uzbrukumiem, valdības piekļuvei un vēl daudz kam. Situācija bija jau slikta pirms AI, ar skandāliem, piemēram, Cambridge Analytica. Bet ar AI cilvēki paši piedāvā šos datus. Mēs redzam Venēciju kā antidotu šai nākamajai uzraudzības fāzei.

Kā Venēcija nodrošina, ka lietotāju pieprasījumi un atbildes paliek privāti? Kā tiek veikta inferenču apstrāde?

Mēs izveidojām Venēcijas privātuma arhitektūru no paša sākuma. Visi lietotāju pieprasījumi tiek saglabāti lokāli pārlūkprogrammā. Pēc tam pieprasījums tiek nosūtīts uz mūsu starpserveri, kas darbojas kā starpnieks, lai aizsegtu lietotāju identitāti. No turienes tas tiek nosūtīts uz mūsu decentralizēto GPU infrastruktūru, kur modelis to apstrādā.

Atbilde nāk atpakaļ caur starpserveri un tiek straumēta lietotājam. Mēs strādājam pie trešo personu un neatkarīgas pārbaudes, lai lietotāji varētu pārbaudīt, ka viņu pieprasījumi tiek apstrādāti tikai šādā veidā. Šobrīd jums jādod mums uzticība, bet mēs prioritizējam caurspīdīgumu un verifikāciju.

Mēs arī dodam lietotājiem kontroli pār pamata telemetriju, piemēram, pieslēgšanās. Jūs pat varat to izslēgt. Protams, lietotāji vēlas privātumu, bet viņi arī gaida lietotni, kas darbojas vienmērīgi, tāpēc mēs vācam minimālos datus, lai uzlabotu pieredzi.

Ko nozīmē "bezatļauju inteliģence" un kā Venēcija ir saskaņota ar šo filozofiju?

Mūsu pamatprincipi ir privātums un bez cenzūras piekļuve. Tomēr bezatļaujuma princips to paceļ vēl augstāk — tas nozīmē, ka tehnoloģijas izmantošanai nav nepieciešama apstiprināšana. Nesen OpenAI paziņoja, ka varētu sākt pieprasīt ID API piekļuvei. Tas ir tāds veids, kādai kontrolei mēs iebilstam.

Ar Venēciju jums pat nav jāizveido konts, lai sāktu to izmantot. Mēs uzskatām, ka šai spēcīgajai tehnoloģijai būtu jābūt pieejamai visiem bez ierobežojumiem. Mēs arī nesam cenzējam izejas. Es nevēlos, lai AI teiktu: "Atvainojiet, es nevaru palīdzēt ar to." Es gribu neapstrādātu inteliģenci, kā tas bija domāts.

Mēs sadarbojāmies ar Dolphin, kas specializējas bez cenzūras modeļos, lai izveidotu Venēciju Bez Cenzūras. Tam ir mazāk nekā 2% atteikuma līmenis, pamatojoties uz mūsu cenzūras standartiem, kas ir daudz zemāks nekā citiem modeļiem, piemēram, ChatGPT, Gemini vai Llama. Mēs neticam, ka AI vai internets jāapstiprina.

Kā jūs kategorizējat modeļus, ko piedāvājat? Kriteriji, kas nosaka katru kategoriju?

Katram modelim ir atšķirīga lietošanas gadījums. Venēcija Bez Cenzūras ir mūsu noklusējuma universālais modelis. Tas ir daudzpusīgs, radošs un pieejams, pat anonīmiem lietotājiem. Tad ir Venēcija Maza, super ātra un lieliska mobilai lietošanai. Venēcija Vidēja ir ar redzes iespējām un lieliska attēlu, pat medicīnisko, analīzei drošā veidā.

Venēcija Liela ir vislabākā sarežģītas domāšanas un lielu failu, piemēram, PDF vai transkriptu, apstrādei. Tam ir lielāks konteksta logs. Tad mums ir Venēcija Racionāla, kas ir vislabākā daudzslāņu problēmām, kas prasa dziļāku domāšanu.

Mēs arī testējam modeļus iekšēji un sekojam sarunām sociālajos medijos. Mēs cenšamies atrast līdzsvaru starp labāko atvērtā koda modeļu uzņemšanu un piedāvājot izsmalcinātu pieredzi.

Vai esat redzējuši uzlabojumus latentē un lietotāja pieredzē pēc modeļu izlīdzināšanas?

Jā, noteikti. Atmetot maz izmantotos modeļus, piemēram, DeepSeek, kas aizņēma daudz inferences jaudas, mēs uzlaboja vispārējo ātrumu. Venēcija Bez Cenzūras, labi pielāgots Mistral 24b modelis, tagad apkalpo plašāku lietotāju bāzi un nodrošina daudz ātrāku sniegumu.

Bez Dolphin, vai esat izveidojuši kādas stratēģiskas partnerības ar uzņēmējdarbības sektoriem, piemēram, finansēm vai veselības aprūpi?

Mēs aktīvi izpētām šīs partnerības. Privātums ir īpaši svarīgs tādās nozarēs kā veselības aprūpe un likums. Mēs esam uzsākuši sarunas ar organizācijām, tostarp universitātēm, piemēram, Oksfordai. Šīs ir agrīnas sarunas, bet mēs redzam reālu iespēju tur.

Kā privātuma pirmais decentralizēts AI platforma, kā jūs plānojat konkurēt ar lielajiem spēlētājiem, piemēram, OpenAI un Google?

Mēs esam atvērtā koda maksimālisti. Pat ja atvērtā koda modeļi var nedaudz atpalikt no slēgtā koda, mēs ticam atvērtā koda kopienas spēkam. Tas ir tāds pats gars kā Ethereum: decentralizēta, sadarbīga attīstība.

Neskatoties uz to, ka esam maza komanda, mēs apkalpojam vairāk nekā miljonu lietotāju. Tas dod mums iespēju ātri pivotēt un sniegt reālu vērtību. Tas ir mūsu neveiklais, taupīgais piegājiens pret AI milžiem.

Kas ir nākamais Venēcijas ceļvedī? Vai jūs izpētāt lietas, piemēram, FHE, vietējās modeļu izvietošanas vai API aģentiem?

Divas galvenās lietas: Pirmkārt, mūsu mobilā lietotne pašlaik ir beta testēšanā un drīzumā tiks laista tirgū; tā ir bijusi ļoti pieprasīta. Otrkārt, mēs tikko uzsākām 27 miljonu dolāru stimulu fondu projektiem, kas izmanto mūsu privāto, bez cenzūras API. Mēs jau esam saņēmuši vairāk nekā 100 pieteikumus un drīzumā sāksim pieņemšanu.

Mums ir arī vēl daži attīstības projekti, par kuriem es nevaru dalīties vēl. Tomēr lietotnes pieredzes uzlabošana un mūsu ekosistēmas paplašināšana ir galvenās prioritātes.

Raksts "Iekšā AI Sacelšanās, ko Venēcija būvē, lai radītu privātu nākotni" pirmo reizi parādījās Metaverse Post.