Vídeo original: Web3 com a16z, AI Crypto

Autor original: Dan Boneh (professor da Universidade de Stanford, consultor de pesquisa sênior da a16z crypto), com foco em criptografia, segurança de computadores e aprendizado de máquina. Ali Yahya (sócio geral da a16z crypto), trabalhou anteriormente no Google Brain e também é a máquina do Google; biblioteca de aprendizagem TensorFlow Um dos principais contribuidores.

Organização e compilação: Qianwen, ChainCatcher

Stephen King certa vez escreveu um romance de ficção científica chamado "A Era do Diamante", no qual existe um dispositivo de inteligência artificial que atua como mentor para as pessoas ao longo de suas vidas. Quando você nasce, você é acompanhado por uma inteligência artificial que o conhece muito bem – conhece suas preferências, acompanha você ao longo da vida, ajuda você a tomar decisões e o orienta na direção certa. Parece ótimo, mas você nunca quer que uma tecnologia como essa caia nas mãos de intermediários gigantes. Porque isso dará muito controle à empresa e se estenderá a uma série de questões de privacidade e soberania.

Queríamos que essa tecnologia fosse realmente minha, e então surgiu a visão de que seria possível usar o blockchain para fazer isso. Você pode incorporar inteligência artificial em contratos inteligentes. Mantenha seus dados privados com o poder das provas de conhecimento zero. Nas próximas décadas, essa tecnologia ficará cada vez mais inteligente. Você pode escolher fazer o que quiser ou mudar da maneira que desejar.

Então, qual é a relação entre blockchain e inteligência artificial? A que tipo de mundo a inteligência artificial nos levará? Qual é o status atual e os desafios da inteligência artificial? Qual será o papel da blockchain nesse processo?

IA e blockchain: A competição

O desenvolvimento da inteligência artificial, incluindo o cenário descrito em (A Era do Diamante), sempre existiu, mas só recentemente experimentou um salto no desenvolvimento.

Primeiro, a IA é, em grande parte, uma tecnologia de cima para baixo e controlada centralmente. A tecnologia de criptografia é uma tecnologia descentralizada, colaborativa e de baixo para cima. De muitas maneiras, criptomoeda é o estudo de como construir sistemas descentralizados que permitem a cooperação humana em larga escala sem a existência de um controlador central real. Nesse sentido, essa é uma maneira natural de combinar essas duas tecnologias em uma.

A IA é uma inovação sustentável que pode fortalecer os modelos de negócios de empresas de tecnologia existentes e ajudá-las a tomar decisões de cima para baixo. O melhor exemplo disso é o Google, que é capaz de decidir qual conteúdo é apresentado aos usuários entre bilhões de usuários e bilhões de visualizações de página. A criptomoeda é essencialmente uma inovação disruptiva, e seu modelo de negócios é fundamentalmente contrário ao das grandes empresas de tecnologia. Este é, portanto, um movimento liderado por rebeldes marginais e não por aqueles que estão no poder.

Portanto, a inteligência artificial pode estar intimamente relacionada a todos os aspectos da proteção da privacidade, e os dois irão promover e interagir um com o outro. A IA como tecnologia criou todos os tipos de incentivos que resultam em cada vez menos privacidade para todos os usuários porque as empresas querem acesso a todos os nossos dados. E modelos de inteligência artificial treinados com mais e mais dados se tornarão mais eficazes. Por outro lado, a IA não é perfeita, os modelos podem ser tendenciosos e os vieses podem levar a resultados injustos. Portanto, há muitos artigos sobre justiça algorítmica nesta fase.

Acredito que estamos caminhando em direção à IA, onde os dados de todos são agregados nesses treinamentos de modelos massivos para otimizá-los. As criptomoedas, por outro lado, estão se movendo na direção oposta, aumentando a privacidade pessoal e capacitando os usuários a controlar a soberania dos dados. Pode-se dizer que a tecnologia de criptografia é uma tecnologia que compete com a inteligência artificial porque pode nos ajudar a distinguir conteúdo criado por humanos ou inteligência artificial de conteúdo abundante. Em um mundo inundado com conteúdo criado por inteligência artificial, a tecnologia de criptografia se tornará uma ferramenta importante para manter e preservar o conteúdo humano.

A criptomoeda é o Velho Oeste porque é completamente sem necessidade de permissão e qualquer um pode participar. Você tem que presumir que algumas dessas partes são maliciosas. Portanto, há uma necessidade ainda maior de ferramentas para ajudar a filtrar participantes honestos dos desonestos, e o aprendizado de máquina e a inteligência artificial, como ferramentas inteligentes, são realmente muito úteis nesse sentido.

Por exemplo, há projetos que usam aprendizado de máquina para identificar transações suspeitas enviadas para carteiras. Dessa forma, as transações do usuário serão marcadas e enviadas ao blockchain. Essa é uma ótima maneira de evitar que os usuários enviem acidentalmente todos os seus fundos para um invasor ou façam algo do qual se arrependerão mais tarde. O aprendizado de máquina também pode ser usado como uma ferramenta para ajudar você a determinar com antecedência quais transações provavelmente terão mev.

Assim como os modelos LLM podem ser usados ​​para detectar dados falsos ou atividades maliciosas, esses modelos também podem ser usados ​​para gerar dados falsos. O exemplo mais típico é o deep fake. Você pode criar um vídeo de alguém dizendo algo que nunca disse antes. Mas o blockchain pode realmente ajudar a aliviar esse problema.

Por exemplo, há registros de data e hora no blockchain que mostram que você disse isso e aquilo naquela data. Se alguém falsificar um vídeo, você pode usar o registro de data e hora para negá-lo. Todos esses dados, dados verdadeiramente autênticos, são registrados no blockchain e podem ser usados ​​para provar que esse vídeo deep fake é realmente falso. Então acredito que o blockchain poderia ajudar a combater a falsificação. Também podemos contar com hardware confiável para conseguir isso. Dispositivos como câmeras e nossos telefones assinam as imagens e vídeos que capturam como um padrão. É chamado de C 2 PA e especifica como as câmeras assinam dados. Na verdade, uma câmera Sony agora pode tirar fotos e vídeos e então gerar uma assinatura C2PA nos vídeos. Este é um tópico muito complexo e não entraremos em detalhes aqui.

Normalmente, quando os jornais publicam fotos, eles não as publicam exatamente como foram tiradas pela câmera. Eles cortarão e farão algum trabalho de licenciamento na foto. Depois que você começar a editar a imagem, isso significa que o destinatário, o leitor final, o usuário no navegador não verá a imagem original, e a verificação da assinatura C 2 PA não será possível.

A questão é: como os usuários podem confirmar se as imagens que veem estão realmente assinadas corretamente pela câmera C 2 PA? É aqui que as técnicas ZK são úteis: você pode provar que a imagem editada é, na verdade, o resultado da redução da resolução e do dimensionamento em tons de cinza da imagem corretamente assinada. Dessa forma, podemos substituir as assinaturas C 2 PA por provas zk simples e corresponder um a um com essas imagens. Agora, os leitores ainda podem confirmar que estão vendo uma imagem real. Portanto, a tecnologia zk pode ser usada para combater essas informações.

Como o blockchain pode quebrar o impasse?

A inteligência artificial é essencialmente uma tecnologia centralizada. Ela se beneficia amplamente das economias de escala, pois executar tudo em um único data center torna tudo mais eficiente. Além disso, dados, modelos de machine learning, talentos de machine learning, etc. são geralmente controlados por algumas empresas de tecnologia. Então, como quebrar o impasse? A criptomoeda pode nos ajudar a alcançar a descentralização da inteligência artificial usando tecnologias como ZKML, que podem ser aplicadas a data centers, bancos de dados e aos próprios modelos de aprendizado de máquina. Por exemplo, na computação, usando a prova de conhecimento zero, os usuários podem provar que o processo real de raciocínio ou modelos de treinamento está correto.

Dessa forma, você pode terceirizar o processo para uma grande comunidade. Com esse processo distribuído, qualquer pessoa com uma GPU pode contribuir com poder de computação para a rede e treinar modelos dessa maneira, sem precisar depender de um grande data center onde todas as GPUs estão concentradas.

Não é certo se isso faz sentido de uma perspectiva econômica. Mas pelo menos com os incentivos certos, o objetivo longo pode ser alcançado. Você pode aproveitar todo o poder possível da GPU. Ter todas essas pessoas contribuindo com poder computacional para modelar treinamentos ou execuções de inferência seria uma alternativa às grandes empresas de tecnologia que controlam tudo. Para conseguir isso, várias questões técnicas importantes devem ser abordadas. Na verdade, há uma empresa chamada Nvidia que está construindo um mercado de computação GPU descentralizado, principalmente para treinar modelos de aprendizado de máquina. Neste mercado, qualquer um pode contribuir com seu poder de computação de GPU. Por outro lado, qualquer pessoa pode aproveitar qualquer computação presente na rede para treinar seus grandes modelos de aprendizado de máquina. Isso se tornará uma alternativa às grandes empresas de tecnologia centralizadas, como OpenAI, Google e Metadata.

Imagine uma situação em que Alice tem uma modelo que ela quer proteger. Ela quer enviar o modelo para Bob em formato criptografado. Bob agora recebe o modelo criptografado e precisa executar seus próprios dados nele. Como fazer isso? Isso requer o uso da chamada criptografia totalmente homomórfica para calcular dados criptografados. Se o usuário tiver um modelo de criptografia e dados de texto simples, ele poderá executar o modelo de criptografia nos dados de texto simples e receber e obter o resultado criptografado. Você envia o resultado criptografado de volta para Alice, e ela pode descriptografá-lo e ver o resultado em texto simples.

Na verdade, essa é uma tecnologia que já existe. A questão é: as técnicas atuais funcionam bem para modelos de médio porte. Podemos ampliá-las para modelos maiores? Este é um desafio considerável que exigirá esforços de mais empresas.

Situação atual, desafios e mecanismos de incentivo

Acredito que precisamos alcançar a descentralização na computação. O primeiro é o problema de verificação, que você pode resolver usando o ZK, mas atualmente essas técnicas só conseguem lidar com modelos menores. O desafio é que o desempenho dessas primitivas criptográficas está longe de ser suficiente para treinamento ou inferência de modelos muito grandes. Portanto, há muito trabalho sendo feito para melhorar o desempenho do processo de prova, para que quantidades cada vez maiores de trabalho possam ser provadas de forma eficiente. Enquanto isso, algumas empresas estão usando outras tecnologias que vão além da criptografia. Em vez disso, eles usam técnicas de teoria dos jogos para fazer com que mais pessoas trabalhem independentemente umas das outras. Esta é uma abordagem otimista da teoria dos jogos que não depende de criptografia, mas ainda se alinha com o objetivo maior de descentralizar a IA ou ajudar a criar um ecossistema de IA. Essa é uma meta definida por empresas como a OpenAI.

O segundo grande problema é o problema dos sistemas distribuídos. Por exemplo, como você coordena uma grande comunidade para contribuir com GP para uma rede de modo que ela pareça um substrato de computação integrado e unificado? Haverá muitos desafios, como decompor a carga de trabalho do aprendizado de máquina de maneira razoável e atribuir diferentes cargas de trabalho a diferentes nós da rede, e como fazer tudo isso de forma eficiente.

A tecnologia atual pode ser aplicada basicamente a modelos de médio porte, mas não a modelos tão grandes quanto GPT 3 ou GPT 4. Claro que temos outros métodos. Por exemplo, podemos ter várias pessoas conduzindo o treinamento e depois comparando os resultados, criando assim um mecanismo de incentivo baseado na teoria dos jogos. Incentive as pessoas a não trapacear. Se alguém trapacear, outros podem reclamar que os resultados do treinamento que eles calcularam estão incorretos. Dessa forma, o trapaceiro não recebe pagamento. Também podemos descentralizar fontes de dados na comunidade para treinar grandes modelos de aprendizado de máquina. Da mesma forma, podemos coletar todos os dados e treinar o modelo nós mesmos, em vez de ter uma organização centralizada no comando. Isto pode ser alcançado através da criação de um mercado. Isso é semelhante ao mercado de computação que acabamos de descrever.

Também podemos olhar para isso de uma perspectiva de incentivo, encorajando as pessoas a contribuírem com novos dados para um grande conjunto de dados, que podem então ser usados ​​para treinar modelos. As dificuldades aqui são semelhantes aos desafios de verificação. Você precisa verificar de alguma forma se os dados que as pessoas contribuem são realmente bons. Esses dados não são dados duplicados, nem dados inúteis gerados aleatoriamente, nem são dados falsos gerados de alguma forma.

Além disso, certifique-se de que os dados não subvertam o modelo de alguma forma, caso contrário, o desempenho do modelo irá piorar. Talvez tenhamos que confiar em uma combinação de soluções técnicas e soluções sociais, caso em que você também pode construir credibilidade por meio de algum tipo de métrica do site que esteja disponível para os membros da comunidade, para que, quando eles contribuam com dados, os dados sejam mais confiáveis ​​do que seriam de outra forma.

Caso contrário, levará muito tempo para realmente atingir a cobertura da distribuição de dados. Um dos desafios do aprendizado de máquina é que os modelos só conseguem cobrir realisticamente a distribuição do conjunto de dados de treinamento. Se houver algumas entradas que estejam muito fora da distribuição dos seus dados de treinamento, seu modelo pode se comportar de forma completamente imprevisível. Para que um modelo tenha um bom desempenho em casos extremos, pontos de dados do tipo cisne negro ou entradas de dados que você pode encontrar no mundo real, precisamos de um conjunto de dados que seja o mais abrangente possível.

Então, se você tem esse mercado aberto e descentralizado para conjuntos de dados, você pode permitir que qualquer pessoa no mundo que tenha dados exclusivos contribua com esses dados para a rede, o que é uma maneira muito melhor. Porque se você tentar fazer isso como uma empresa central, não terá como saber quem é o dono dos dados. Então, se você puder criar um incentivo para que essas pessoas se apresentem e forneçam esses dados, então acho que você pode realmente obter uma cobertura significativamente melhor dos dados de cauda longa.

Então precisamos ter algum mecanismo para garantir que os dados que você fornece são reais. Uma abordagem é confiar em hardware confiável, incorporando algum hardware confiável no próprio sensor, e confiamos apenas em dados que são assinados corretamente pelo hardware. Caso contrário, precisamos ter outros mecanismos para distinguir a autenticidade dos dados. Atualmente, há duas tendências importantes em aprendizado de máquina. Primeiro, os métodos para medir o desempenho dos modelos de aprendizado de máquina estão em constante aprimoramento, mas ainda estão nos estágios iniciais e é difícil dizer realmente o quão bem outro modelo está se saindo. Outra tendência é que estamos melhorando a capacidade de explicar por que os modelos funcionam.

Então, com base nesses dois pontos, em algum momento, talvez eu consiga entender o impacto dos conjuntos de dados no desempenho dos modelos de aprendizado de máquina. Se pudermos entender se os conjuntos de dados fornecidos por terceiros contribuem para o desempenho dos modelos de aprendizado de máquina, poderemos recompensar essa contribuição e criar incentivos para que esse mercado exista. Imagine se você pudesse criar um mercado aberto onde as pessoas pudessem contribuir com modelos treinados para resolver um tipo específico de problema, ou se você criasse um contrato inteligente que tivesse algum tipo de teste incorporado, e se alguém pudesse fornecer um modelo usando zkml e provar que o modelo poderia resolver esse teste, esse seria um resultado possível. Agora você tem as ferramentas necessárias para criar um mercado onde as pessoas são incentivadas a contribuir com modelos de aprendizado de máquina que resolvem determinados problemas.

Como a IA e a criptografia formam um modelo de negócios?

Acredito que a visão por trás da intersecção entre criptomoeda e IA é que você pode criar um conjunto de protocolos que distribuem o valor capturado por essa nova tecnologia, IA, para mais pessoas, para que todos possam contribuir e compartilhar os benefícios dessa nova tecnologia.

Portanto, as pessoas que poderão lucrar serão aquelas que contribuírem com poder de computação, aquelas que contribuírem com dados ou aquelas que contribuírem com novos modelos de aprendizado de máquina para a rede, para que melhores modelos de aprendizado de máquina possam ser treinados para resolver problemas mais importantes.

Os demandantes da rede também podem lucrar. Eles usaram essa rede como infraestrutura para treinar seus próprios modelos de aprendizado de máquina. Talvez o modelo deles possa contribuir para algo interessante, como uma ferramenta de bate-papo de última geração. Nesses modelos, como essas empresas terão seus próprios modelos de negócios, elas mesmas poderão impulsionar a captura de valor.

Aqueles que construírem essa rede também serão beneficiados. Por exemplo, um token é criado para a rede e os tokens são distribuídos para a comunidade. Todas essas pessoas terão propriedade coletiva dessa rede descentralizada para computação de dados e modelos, e também poderão capturar parte do valor de toda a atividade econômica que ocorre por meio dessa rede.

Você pode imaginar que cada transação que passa por essa rede, cada método de pagamento que paga por computação, dados ou modelos, pode ter uma taxa cobrada que vai para um tesouro controlado por toda a rede. Os detentores de tokens são donos coletivos da rede. Esse é essencialmente o modelo de negócios da própria rede.

A inteligência artificial promove a segurança do código

Muitos dos nossos ouvintes já devem ter ouvido falar do copiloto, que é uma ferramenta usada para gerar código. Você pode tentar usar essas ferramentas de geração colaborativa para escrever contratos de solidez ou código criptográfico. Quero enfatizar que fazer isso é realmente muito perigoso. Porque muitas vezes, quando você tenta executar algo, esses sistemas geram código que funciona, mas não é seguro.

Na verdade, escrevemos um artigo recentemente sobre esse problema, onde mostramos que se você tentar fazer com que um piloto colaborativo escreva uma função de criptografia simples, a função de criptografia fornecida estará correta. Mas ele usa um modo de operação incorreto, então você acaba com um modo de criptografia inseguro.

Você pode perguntar: por que isso acontece? Um dos motivos é que esses modelos são basicamente treinados com base no código existente, que é treinado nos repositórios do GitHub. Muitos repositórios do GitHub são realmente vulneráveis ​​a vários ataques. Portanto, o código aprendido por esses modelos funciona, mas não é seguro. É como lixo de baixa qualidade produzindo lixo. Então espero que as pessoas tenham muito cuidado ao usar esses modelos generativos para gerar código e verifiquem novamente se o código realmente faz o que deve fazer e se o faz com segurança.

Você pode usar modelos de IA em conjunto com outras ferramentas para gerar código e garantir que todo o processo esteja livre de erros. Por exemplo, uma ideia é usar um modelo LLM para gerar uma especificação para um sistema de verificação formal e pedir ao LLM para gerar uma especificação para uma ferramenta de verificação formal. A mesma instância LLM é então solicitada a gerar um programa que esteja em conformidade com a especificação, e uma ferramenta de verificação formal é usada para ver se o programa realmente está em conformidade com a especificação. Se ocorrer uma vulnerabilidade, a ferramenta irá capturá-la. Esses erros podem ser enviados de volta ao llm como feedback e, então, idealmente, o llm pode modificar seu trabalho e produzir outra versão correta do código.

Por fim, se você repetir o processo, você terminará com um pedaço de código que, idealmente, satisfaz exatamente esse valor de retorno e que foi formalmente verificado para satisfazer esse valor de retorno. E, como os humanos conseguem ler esse rastreamento, você pode olhar para ele e ver que esse é o programa que eu queria escrever. De fato, houve muitas tentativas de avaliar a capacidade do LLM de encontrar vulnerabilidades de software, como Solidity Smart Contracts, C e C plus.

Então, chegaremos a um ponto em que o código gerado por LLMs terá menos probabilidade de conter bugs do que o código gerado por humanos? Por exemplo, quando discutimos a direção autônoma, nos importamos se é menos provável que ela sofra um acidente do que um motorista humano? Acredito que essa tendência ficará cada vez mais forte, e o grau em que as tecnologias de IA serão integradas às cadeias de ferramentas existentes aumentará.

Você pode integrá-lo à sua cadeia de ferramentas de verificação formal e também a outras ferramentas, como a ferramenta mencionada anteriormente que verifica problemas de gerenciamento de memória. Você também pode integrá-lo às suas cadeias de ferramentas de testes unitários e de integração para que o llm não atue no vácuo. Ele pode obter feedback em tempo real de outras ferramentas que o conectam à verdade básica.

Acredito que a combinação de modelos muito grandes de aprendizado de máquina treinados usando todos os dados do mundo, somados a essas outras ferramentas, poderia tornar possível que programas de computador fossem melhores que programadores humanos. Mesmo que ainda cometam erros, eles podem ser sobre-humanos. Este será um momento significativo na engenharia de software.

Inteligência Artificial e Gráficos Sociais

Outra possibilidade é que possamos construir redes sociais descentralizadas que se comportem muito como o Weibo, mas o gráfico social esteja completamente na cadeia. É quase como um bem público sobre o qual qualquer um pode construir. Como usuário, você tem controle sobre sua identidade no gráfico social. Você pode controlar seus próprios dados, quem você segue e quem pode segui-lo. Além disso, há uma série de empresas criando portais no gráfico social que oferecem aos usuários experiências semelhantes às do Twitter, Instagram, Tick Tock ou qualquer outra coisa que eles queiram criar.

Mas tudo é construído no mesmo gráfico social, e ninguém é dono dele, e não há nenhuma empresa de tecnologia multibilionária no meio que o controle completamente.

Esse é um mundo emocionante para se estar porque significa que ele pode ser mais vibrante e pode haver um ecossistema construído por pessoas juntas. Cada usuário terá mais controle sobre o que vê e faz na plataforma.

Mas, ao mesmo tempo, os usuários também precisam filtrar o sinal do ruído. Por exemplo, um algoritmo de recomendação razoável precisa ser desenvolvido para filtrar todo o conteúdo e mostrar as fontes de notícias que você realmente deseja ver. Isso abrirá as portas para todo um mercado, um ambiente competitivo de participantes que oferecem serviços. Você pode usar algoritmos, usar algoritmos baseados em IA para selecionar conteúdo para você. Como usuário, você pode decidir se deseja usar um algoritmo específico, talvez aquele criado pelo Twitter, ou algum outro algoritmo. Mas, novamente, você também precisa de ferramentas como aprendizado de máquina para ajudar você a peneirar o ruído e analisar toda a porcaria que, neste mundo, modelos generativos podem criar, toda a porcaria que existe no mundo.

Por que a prova humana é importante?

Uma questão muito relevante é: em um mundo inundado de conteúdo falso gerado por IA, como você prova que é realmente humano?

A biometria é uma direção possível, e um projeto, chamado World Coin, usa escaneamentos de retina como informação biométrica para verificar se você é uma pessoa real, para garantir que você seja de fato uma pessoa viva, não apenas uma foto dos seus olhos. O sistema tem um hardware seguro que é difícil de adulterar, então a prova que sai do outro lado, que é uma prova de conhecimento zero que mascara suas informações biométricas reais, é difícil de falsificar dessa maneira.

Na Internet, ninguém sabe que você é um robô. Então acho que é aqui que o projeto de prova de humanidade se torna realmente importante, porque saber se você está interagindo com um robô ou um humano será muito importante. Se você não tem provas de humanidade, então você não pode dizer se um endereço pertence a uma pessoa ou a um grupo de pessoas, ou se 10.000 endereços realmente pertencem a uma pessoa ou estão apenas fingindo ser 10.000 pessoas diferentes.

Isto é crucial na governança. Se cada participante de um sistema de governança puder provar que é de fato humano, e puder provar que é humano de uma forma única porque tem apenas um par de olhos, então o sistema de governança será muito mais justo e menos plutocrático (com base em preferências pela maior quantidade de dinheiro bloqueada em algum contrato inteligente).

Inteligência Artificial e Arte

Os modelos de IA significam que viveremos em um mundo de mídia infinitamente rica, um mundo onde a comunidade em torno de qualquer peça específica de mídia ou a narrativa em torno de qualquer peça específica de mídia se tornará cada vez mais importante.

Por exemplo, a Sound.xyz está construindo uma plataforma descentralizada de streaming de música que permite que artistas e músicos carreguem músicas e depois se conectem diretamente com nossa comunidade vendendo NFTs para eles. Por exemplo, você pode comentar uma faixa no site sound dot xyz para que outras pessoas que tocam a música possam ver o comentário. Isso é semelhante ao recurso anterior do SoundCloud. O ato de comprar NFTs também apoia os artistas, ajudando-os a alcançar o desenvolvimento sustentável e a criar mais obras musicais. Mas a beleza de tudo isso é que isso realmente dá aos artistas uma plataforma para realmente se envolverem com a comunidade. Os artistas são os artistas de todos.

Por causa do que a criptomoeda faz aqui, você pode criar uma comunidade em torno de uma peça musical que não existiria se a peça musical fosse criada apenas por um modelo de aprendizado de máquina sem nenhum elemento humano.

Muitas das músicas às quais seremos expostos serão completamente geradas por IA, e as ferramentas para construir comunidades e contar histórias em torno da arte, da música e de outros tipos de mídia serão muito importantes para diferenciar a mídia com a qual realmente nos importamos e na qual realmente queremos investir e passar tempo do restante da mídia que existe por aí.

Provavelmente haverá algumas sinergias entre os dois, já que muitas músicas serão aprimoradas ou geradas por IA. Mas se houver elementos humanos envolvidos, por exemplo, um criador usa ferramentas de inteligência artificial para criar uma nova peça musical, ele tem suas próprias características sonoras, sua própria página de artista, sua própria comunidade e seus próprios seguidores.

Agora, há uma sinergia entre esses dois mundos, e temos a melhor música porque a IA nos deu superpoderes. Mas, ao mesmo tempo, você tem o elemento humano e as histórias que são coordenadas e possibilitadas pela criptomoeda, o que permite reunir todas essas pessoas em uma plataforma.

É definitivamente um admirável mundo novo quando se trata de geração de conteúdo. Então, como distinguimos entre arte gerada pelo homem, que precisa de apoio, e arte gerada por máquina?

Isso na verdade abre as portas para a arte coletiva, arte produzida através do processo criativo de uma comunidade inteira, e não de um único artista. Já existem alguns projetos que fazem isso, onde a comunidade influencia a cadeia por meio de algum processo de votação para gerar obras de arte com base em prompts de modelos de aprendizado de máquina. Talvez você gere não uma obra de arte, mas dez mil. Depois, você usa outro modelo de aprendizado de máquina, que também é treinado com base no feedback da comunidade, para selecionar a melhor entre essas 10.000 imagens.