
Duas semanas após o lançamento do GPT-4, uma carta aberta assinada por Elon Musk e milhares de pessoas da indústria de tecnologia foi publicada online. A carta aberta apela a todos os laboratórios de inteligência artificial para suspenderem imediatamente o treino de sistemas de inteligência artificial mais poderosos que o GPT-4 durante pelo menos 6 meses.
O cofundador da Apple, Steve Wozniak, o vencedor do Prêmio Turing, Yoshua Bengio, e o coautor do livro de IA "Inteligência Artificial: Uma Abordagem Moderna" Stuart Russell Stuart Russell e outras figuras conhecidas da tecnologia assinaram esta carta aberta.
A carta aberta afirma que “a IA avançada pode significar mudanças profundas na história da vida na Terra, e deveríamos investir atenção e recursos proporcionais no seu planeamento e gestão. Mas agora a inteligência artificial caiu numa corrida fora de controlo”. e os desenvolvedores não conseguem entendê-lo e controlá-lo de forma confiável.
A carta aberta também mencionou que os sistemas contemporâneos de inteligência artificial estão agora a tornar-se competitivos com os humanos em tarefas gerais. “Sistemas poderosos de inteligência artificial só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos são positivos e os seus riscos são controláveis”.
Segundo a ideia da carta aberta, o treinamento de sistemas de IA mais potentes que o GPT-4 deveria ser suspenso por 6 meses. Durante esta pausa, os laboratórios de IA e os especialistas independentes devem trabalhar em conjunto para desenvolver e implementar um conjunto partilhado de protocolos de segurança para a conceção e desenvolvimento avançados de IA, sujeitos a auditoria e supervisão rigorosas por especialistas externos independentes.
Esses protocolos devem garantir que seus sistemas sejam seguros e estejam além de qualquer dúvida razoável. Isto não significa uma moratória no desenvolvimento da IA em geral, apenas um passo atrás na corrida perigosa em direção a modelos de caixa preta maiores e imprevisíveis.
A carta foi publicada no site do Future of Life Institute, que é financiado principalmente pela Musk Foundation, Founders Pledge e Silicon Valley Community Foundation, e sua missão é orientar tecnologias transformadoras para se afastarem de tecnologias extremas e de grande escala. riscos e rumo a uma vida de bênçãos.
Já em 2017, o Future of Life Institute reuniu mais de 100 líderes de pensamento e pesquisadores nas áreas de economia, direito, ética e filosofia para se reunirem na Califórnia para discutir e formular princípios para uma inteligência artificial benéfica. No final, formularam 23 Princípios de Inteligência Artificial Asilomar, que são considerados princípios importantes para a governação da inteligência artificial. A primeira delas é “O objetivo da pesquisa em inteligência artificial deve ser estabelecer uma inteligência benéfica, e não uma inteligência desordenada”.
Para os trabalhadores da tecnologia que assinaram esta carta aberta, a maioria das pessoas está preocupada com o facto de a IA estar a desenvolver-se demasiado rápido, a supervisão e as leis relevantes não terem acompanhado e mesmo os inventores não terem métodos de controlo eficazes. Sob tais condições, a utilização irrestrita da IA poderá trazer riscos sistémicos caso surjam problemas.
De acordo com a revista Time, Simon Campos, signatário da carta aberta e CEO da startup de segurança de inteligência artificial SaferAI, disse que os inventores dos sistemas de IA não sabem exatamente como funcionam ou o que são, por isso não conseguem gerenciar os riscos do sistema. O inventor tem capacidade para fazer isso, mas não sabe como limitar o comportamento da IA.
“O que estamos fazendo agora?”, perguntou Campos. "Estamos trabalhando a todo vapor para expandir estes sistemas a níveis de capacidade sem precedentes e ter um impacto transformador na sociedade. Devemos desacelerar o desenvolvimento destes sistemas e permitir que a sociedade se adapte."
A preocupação de Musk: IA que não pode ser desligada
Musk tem sido cauteloso com a IA há muito tempo. Já em 2014, Musk declarou publicamente numa entrevista que deveríamos ter muito cuidado com a inteligência artificial. inteligência. “Com a inteligência artificial, os humanos estão invocando o diabo”, disse Musk.
Ele também disse: "Estou cada vez mais inclinado a pensar que deveria haver alguma supervisão regulatória, talvez a nível nacional e internacional, apenas para garantir que não faremos algo realmente estúpido."
Musk não fala apenas sobre questões de segurança da IA. No início de 2015, Musk doou 7 milhões de dólares ao Future of Life Institute para realizar pesquisas destinadas a fazer com que a IA beneficiasse a humanidade. A maioria dos beneficiários está envolvida em pesquisas sobre ética, governança e segurança em IA. Muitos beneficiários, como Stuart Russell, participaram da assinatura desta carta aberta.
Como um dos primeiros investidores na DeepMind, Musk parece um tanto ambivalente em relação à IA. Mas afirmou que o seu investimento não foi na perspectiva do retorno do investimento, mas apenas quis prestar atenção ao desenvolvimento da inteligência artificial, porque isso pode levar a resultados perigosos. Existem algumas consequências terríveis, disse ele, e devemos trabalhar para garantir que as consequências sejam boas e não más. "
O mau resultado não é que os robôs se rebelem e eliminem os humanos, como retratado no filme. Em vez disso, os especialistas não se preocupam com a consciência dos robôs, mas com as suas capacidades. A IA tem uma capacidade poderosa para atingir os seus objetivos, mas se ficar fora de controlo ou se desviar do cenário de utilização planeado, poderá causar danos irreversíveis.
Pessoa importante que assinou a carta aberta, o vencedor do Prêmio Turing, Joshua Bengio, conhecido como o “Padrinho da IA”, sempre se preocupou com o abuso da inteligência artificial. Em 2018, Bengio foi um dos milhares de investigadores de inteligência artificial que assinaram um compromisso de oposição ao desenvolvimento de armas de IA. Ele apelou aos governos para que regulamentem a investigação em inteligência artificial e parem o desenvolvimento de robôs mortais.
As armas de IA são um exemplo extremo de abuso de robôs. As armas de IA são mais eficientes do que as armas tradicionais quando usadas no campo de batalha. Porém, uma vez fora de controle, os problemas causados pelas armas de inteligência artificial serão mais graves. No campo de batalha, para não funcionarem mal sob simples interferência, as atuais armas de IA são muitas vezes projetadas para serem difíceis de desligar diretamente. Imagine as consequências trágicas se armas de IA altamente eficazes, programadas para atacar seres humanos, caíssem acidentalmente em áreas civis.
Na verdade, como desligar a IA é um problema que preocupa muitos especialistas em assinaturas.
Mas se a aplicação da IA se desenvolver demasiado rapidamente, desligá-la poderá exigir custos elevados e tornar-se difícil. Musk imaginou que se um algoritmo ficar fora de controle em um sistema, os gerentes poderão encontrá-lo. Mas se este sistema for gerido por uma grande IA, podemos não ser capazes de encontrar o ponto onde está fora de controlo, ou podemos não ter autoridade para parar o funcionamento de toda a grande IA. A simples manutenção pode se tornar um problema.
É por isso que a IA precisa de mais regulamentação e a tecnologia precisa de ser mais democrática, em vez de concentrada nas mãos de grandes empresas.
Para evitar que o poder da IA se concentre nas mãos de grandes empresas, especialmente Google DeepMind, Musk e Sam Altman co-fundaram a OpenAI com o objetivo de democratizar o poder da inteligência artificial e reduzir o poder da IA. sendo monopolizado.
Isso é um tanto irônico. O GPT-4, criado pela OpenAI, é exatamente o que Musk está se opondo atualmente. Apenas alguns dias atrás, Musk estava tendo uma briga verbal com o CEO da OpenAI, Sam Altman.
Pare, "Vamos alinhar."
Além das preocupações destes grandes nomes, entre o público em geral, existe um medo antigo da IA.
Entre eles, está o medo do computador superinteligente HAL 9000 que ganhou consciência no filme de ficção científica "2001: Uma Odisséia no Espaço", e também há um medo mais prático do caos e das situações ruins que podem ser causadas por IA controlando o mundo.
Nessa carta aberta, um dos materiais citados muitas vezes foi o livro best-seller “Alignment Problem”, elogiado por muitos grandes nomes da área de inteligência artificial, incluindo executivos da Microsoft. Um cofundador do Future of Life Institute (FLI), que publicou a carta aberta, elogiou publicamente o livro: “Está cheio de descobertas surpreendentes, obstáculos inesperados, soluções engenhosas e cada vez mais questões difíceis sobre a natureza da vida”. nossa espécie.” E o maior problema discutido nesse livro é: a ética da inteligência artificial.
Uma das questões éticas mais simples da inteligência artificial é o problema do clipe de papel. Se um robô receber a ordem de fazer o maior número possível de clipes de papel, ele esgotará todos os recursos do planeta e fará incansavelmente os clipes de papel pelo maior tempo possível, porque a conclusão dessa tarefa está relacionada. Se não houver conflito com o código moral, tudo o que ele pode fazer é executar tarefas. Na longa história da humanidade, um grande número de normas morais, o nosso espanto e medo foram solidificados na nossa cultura e profundamente enraizados na mente de todos. Às vezes, nós próprios não temos consciência disso, e uma máquina não viveu uma história tão longa. . A evolução das crianças, tal como uma criança que nasce com superpoderes, torna-se um risco em si.
Portanto, Brian Christian, autor do livro "The Alignment Problem" e autor de best-sellers que agora é pesquisador visitante na Universidade da Califórnia, Berkeley, acredita que é necessário tornar a IA cuidadosa, abrangente e em tempo real. ética e ética humana consistente. Nesse sentido, esta carta aberta é como um departamento de uma grande fábrica pedindo aos funcionários que parem o que estão fazendo e vão para a sala de conferências: “Vamos nos alinhar”.
É claro que, além de discutir essas questões aparentemente distantes, “Questões de Alinhamento” também discute questões que estão acontecendo atualmente.
Um estado nos Estados Unidos utiliza um programa de computador para avaliar a probabilidade de os criminosos cometerem outro crime, depois decide sobre a fiança e a liberdade condicional e atribui os montantes das fianças. No entanto, algo estranho aconteceu no sistema, Borden, que era negro, foi classificado como de alto risco, e Platt, que era branco, foi classificado como de baixo risco. Uma investigação de acompanhamento de dois anos dos dois descobriu que Borden nunca experimentou. qualquer crime nas acusações de dois anos, enquanto Platt foi condenado a oito anos de prisão por roubo e furto. Obviamente, sob o big data, a discriminação racial em humanos também foi transplantada para a IA - mas o principal problema é que todos pensam que são bebés recém-nascidos e isso é justo. Em "Questões de Alinhamento", o autor também mencionou a discriminação de gênero no recrutamento. Ninguém tem configurações para IA. No entanto, no big data, a discriminação ocorre naturalmente.
A inteligência artificial baseada em big data pode fortalecer as questões amplamente ignoradas da discriminação e da desigualdade no nosso grupo étnico. Uma vez que estas questões entrem no sistema sem serem notadas ou consideradas triviais, serão solidificadas.
Portanto, nos comentários dos leitores sobre o livro "Problemas de Alinhamento", muitas pessoas mencionaram pessoas - a IA está amplificando os problemas existentes da humanidade e, o mais importante, que tipo de pessoas a IA será colocada nas mãos?
Não há quase nenhuma dúvida de que a IA trará enormes aumentos na produtividade, mas, tal como aconteceu com a anterior revolução da informação, esta poderosa ferramenta de trabalho conduzirá ainda mais à concentração da riqueza - de 1980 até hoje, o 1% dos que mais ganham. da população aumentou de 10% para quase 20%, enquanto a parcela do rendimento dos 50% mais pobres caiu de 20% em 1980 para 12%. Ninguém pode imaginar como serão esses dados 40 anos após o lançamento do GPT? Além do mais, esta é uma ferramenta de produtividade mais pró-capital.
Já em fevereiro deste ano, o professor do MIT Daron Acemoglu, que há muito se preocupa com questões de inteligência artificial, publicou um artigo mencionando o seguinte cenário: as empresas demitiram o atendimento humano ao cliente, um grande número de pessoas perderam seus empregos e os consumidores só podem aceitar um funcionário eloqüente, mas o serviço de atendimento ao cliente do robô não consegue resolver nenhum problema. Tal abordagem “debilitará e desempoderará os funcionários e degradará a experiência do consumidor, desapontando, em última análise, a maioria dos investidores. Não deveríamos ser assim”.
Esta carta aberta não é a primeira vez que as pessoas expressam preocupações sobre o futuro da inteligência artificial. Na sua carta aberta, Gates também mencionou a necessidade de prestar atenção à questão da igualdade na era da inteligência artificial: as forças de mercado não irão naturalmente. produzir produtos que ajudem as pessoas mais pobres. Com produtos e serviços de inteligência artificial, a possibilidade oposta será maior.
Já em 16 de março, Altman também mencionou com preocupação que "o software que pode pensar e aprender fará cada vez mais o trabalho que as pessoas fazem agora. Mais poder será transferido do trabalho para o capital. Se o público Sem ajustes políticos correspondentes, a maioria das pessoas acabará em situação pior do que está agora."
Portanto, Altman mencionou que é necessário introduzir um novo sistema para tributar o capital em vez do trabalho, para que mais pessoas possam partilhar os frutos desta revolução da inteligência artificial.
Actualmente, levará algum tempo até que a IA se torne a infra-estrutura da vida humana, mas este tempo pode estar a esgotar-se. Após o surgimento do GPT-4, as capacidades da IA em grande escala dispararam na "corrida armamentista". As aplicações de IA podem em breve ser popularizadas em todos os aspectos da vida, mas não há tempo para ajudar a IA a testar a segurança, compreender as necessidades humanas. e definir padrões regulatórios. É por isso que os especialistas por detrás desta carta aberta apelam a uma moratória na investigação em IA em grande escala.
Talvez, como disse o cientista-chefe da Microsoft, Eric Horvitz: Hoje, na inteligência artificial no horizonte, algumas coisas são conhecidas, algumas coisas são desconhecidas, e o meio é a porta que nos resta para observar o mundo.