Os cientistas têm medo da ameaça da inteligência artificial

Os cientistas têm medo da ameaça da inteligência artificial
Os cientistas têm medo da ameaça da inteligência artificial

Vídeo: Os cientistas têm medo da ameaça da inteligência artificial

Vídeo: Os cientistas têm medo da ameaça da inteligência artificial
Vídeo: A Queda de Napoleão - A Derrota na Rússia e a Batalha de Waterloo - Parte 5 - Foca na História 2024, Dezembro
Anonim

A inteligência artificial (IA) de autoaperfeiçoamento no futuro pode escravizar ou matar pessoas se ele quiser. Isso foi dito pelo cientista Amnon Eden, que acredita que os riscos do desenvolvimento de uma consciência de pensamento livre e altamente inteligente são muito altos, e "se você não cuidar das questões de controle de IA já no estágio atual de desenvolvimento, então o amanhã pode simplesmente não chegar. " Segundo a edição inglesa Express, a humanidade, segundo Amnon Eden, está hoje no “ponto sem volta” para a concretização do enredo do famoso filme épico “O Exterminador do Futuro”.

É importante notar que o Dr. Amnon Eden é um líder de projeto cujo principal objetivo é analisar os potenciais efeitos devastadores da IA. Sem uma compreensão correta das consequências da criação de inteligência artificial, seu desenvolvimento pode ser ameaçado de desastre, acredita o cientista. Atualmente, nossa sociedade está mal informada sobre o debate que está acontecendo na comunidade científica sobre a análise do impacto potencial da IA. “No próximo ano de 2016, a análise de possíveis riscos terá que se tornar muito mais difundida no pensamento de empresas e governos, políticos e responsáveis pela tomada de decisões”, afirma Eden.

O cientista tem certeza de que a ficção científica, que descreve a destruição da humanidade por robôs, pode em breve se tornar nosso problema comum, pois o processo de criação de IA saiu do controle. Por exemplo, Elon Musk, com o apoio do empresário Sam Altman, decidiu criar uma nova organização sem fins lucrativos de US $ 1 bilhão que desenvolve IA de código aberto que deve superar a mente humana. Ao mesmo tempo, o próprio bilionário americano Elon Musk classifica a inteligência artificial entre as "maiores ameaças à nossa existência". Steve Wozniak, que co-fundou a Apple, disse em março passado que “o futuro parece assustador e muito perigoso para as pessoas … eventualmente chegará o dia em que os computadores pensarão mais rápido do que nós e eles se livrarão das pessoas lentas para para que as empresas possam trabalhar com mais eficiência."

Imagem
Imagem

É importante notar que muitos cientistas vêem a ameaça da IA. Dezenas de renomados cientistas, investidores e empresários, cujas atividades estão, de uma forma ou de outra, relacionadas ao desenvolvimento da inteligência artificial, assinaram uma carta aberta pedindo mais atenção à questão da segurança e da utilidade social do trabalho no país. campo da IA. O astrofísico Stephen Hawking e fundador da Tesla e SpaceX Elon Musk estão entre os signatários deste documento. A carta, juntamente com um documento que o acompanha, que foi redigido pelo Instituto Futuro da Vida (FLI), foi escrita em meio a preocupações crescentes sobre o impacto da inteligência artificial no mercado de trabalho e até mesmo a sobrevivência a longo prazo de toda a humanidade em um ambiente onde as capacidades de robôs e máquinas crescerão quase incontrolavelmente.

Os cientistas entendem o fato de que o potencial da IA hoje é muito grande, por isso é necessário investigar completamente as possibilidades de seu uso ideal para nós, a fim de evitar as armadilhas que a acompanham, observa a carta do FLI. É imperativo que os sistemas de IA feitos por humanos façam exatamente o que queremos que eles façam. Vale destacar que o Instituto Futuro da Vida foi fundado apenas no ano passado por uma série de entusiastas, entre os quais estava o criador do Skype, Jaan Tallinn, com o objetivo de “minimizar os riscos que a humanidade enfrenta” e estimular pesquisas com uma “visão otimista do futuro . Em primeiro lugar, estamos falando aqui sobre os riscos causados pelo desenvolvimento da IA e da robótica. O Conselho Consultivo do FLI inclui Musk e Hawking, junto com o aclamado ator Morgan Freeman e outras pessoas famosas. De acordo com Elon Musk, o desenvolvimento descontrolado da inteligência artificial é potencialmente mais perigoso do que as armas nucleares.

O famoso astrofísico britânico Stephen Hawking no final de 2015 tentou explicar sua rejeição às tecnologias de IA. Em sua opinião, com o tempo, as máquinas superinteligentes vão olhar para as pessoas como consumíveis ou formigas que simplesmente interferem na solução de suas tarefas. Conversando com usuários do portal Reddit, Stephen Hawking observou que não acredita que tais máquinas superinteligentes serão "criaturas do mal" que querem destruir toda a humanidade por causa de sua superioridade intelectual. Muito provavelmente, será possível falar sobre o fato de que eles simplesmente não notarão a humanidade.

Imagem
Imagem

“A mídia tem distorcido constantemente minhas palavras ultimamente. O principal risco no desenvolvimento da IA não é a malícia das máquinas, mas sua competência. A inteligência artificial superinteligente fará um excelente trabalho, mas se ela e nossos objetivos não coincidirem, a humanidade terá problemas gravíssimos”, explica o famoso cientista. Como exemplo, Hawking citou uma situação hipotética em que uma IA superpotente é responsável pela operação ou construção de uma nova barragem hidrelétrica. Para tal máquina, a prioridade será quanta energia o sistema confiado irá gerar, e o destino das pessoas não importará. “Existem poucos de nós que pisam em formigueiros e pisam em formigas de raiva, mas vamos imaginar uma situação - você controla uma poderosa usina hidrelétrica que gera eletricidade. Se você precisar aumentar o nível da água e, como resultado de suas ações, um formigueiro será inundado, então os problemas de insetos que se afogam provavelmente não o incomodarão. Não vamos colocar as pessoas no lugar das formigas”, disse o cientista.

O segundo problema potencial para o futuro desenvolvimento da inteligência artificial, segundo Hawking, pode ser a "tirania dos donos de máquinas" - o rápido crescimento da lacuna no nível de renda entre os ricos que poderão monopolizar a produção. de máquinas inteligentes e do resto da população mundial. Stephen Hawking propõe resolver esses possíveis problemas da seguinte maneira - desacelerar o processo de desenvolvimento da IA e mudar para o desenvolvimento de inteligência artificial não "universal", mas altamente especializada, que pode resolver apenas uma gama muito limitada de problemas.

Além de Hawking e Musk, a carta foi assinada pelo Prêmio Nobel e professor de física do MIT Frank Wilczek, o diretor executivo do Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, bem como por vários especialistas de grandes empresas de TI: Google, Microsoft e a IBM, bem como os empreendedores que fundaram as empresas de IA Vicarious e DeepMind. Os autores da carta observam que não pretendem assustar o público, mas pretendem destacar os aspectos positivos e negativos que estão associados à criação de inteligência artificial. “No momento, todos concordam que a pesquisa no campo da IA está progredindo de forma constante, e a influência da IA na sociedade humana moderna só vai aumentar”, diz a carta, “as oportunidades que se abrem para os humanos são enormes, tudo que a civilização moderna tem a oferecer foi criado pela inteligência. pessoa. Não podemos prever o que seremos capazes de alcançar se a inteligência humana puder ser multiplicada pela IA, mas o problema de se livrar da pobreza e da doença não é mais infinitamente difícil.”

Imagem
Imagem

Vários desenvolvimentos no campo da inteligência artificial já estão incluídos na vida moderna, incluindo sistemas de reconhecimento de imagem e voz, veículos não tripulados e muito mais. Os observadores do Vale do Silício estimam que mais de 150 startups estão sendo implementadas nesta área. Ao mesmo tempo, os desenvolvimentos nesta área estão atraindo cada vez mais investimentos, e cada vez mais empresas como o Google desenvolvem seus projetos baseados em IA. Portanto, os autores da carta acreditam que é chegado o momento de prestar mais atenção a todas as possíveis consequências do boom observado para os aspectos econômicos, sociais e jurídicos da vida humana.

A posição de que a inteligência artificial pode representar um perigo para os humanos é compartilhada por Nick Bostrom, um professor da Universidade de Oxford, que é conhecido por seu trabalho sobre o princípio antrópico. Este especialista acredita que a IA chegou a um ponto que será seguido por sua incompatibilidade com os humanos. Nick Bostrom enfatiza que, ao contrário da engenharia genética e da mudança climática, para as quais os governos estão alocando fundos suficientes para controlar, "nada está sendo feito para controlar a evolução da IA". Segundo o professor, uma "política de vazio jurídico que precisa ser preenchido" está sendo perseguida no que diz respeito à inteligência artificial. Até mesmo tecnologias como carros autônomos, que parecem inofensivos e úteis, levantam uma série de questões. Por exemplo, deve tal carro ter que realizar uma frenagem de emergência para salvar seus passageiros e quem será o responsável no caso de um acidente cometido por um veículo não tripulado?

Discutindo os riscos potenciais, Nick Bostrom observou que "o computador não é capaz de determinar os benefícios e danos aos humanos" e "nem mesmo tem a menor idéia da moralidade humana". Além disso, os ciclos de autoaperfeiçoamento em computadores podem ocorrer em uma velocidade que a pessoa simplesmente não consegue acompanhar, e quase nada pode ser feito a respeito, diz o cientista. “No estágio de desenvolvimento, quando os computadores podem pensar por si próprios, ninguém pode prever com certeza se isso levará ao caos ou melhorará significativamente o nosso mundo”, disse Nick Bostrom, citando como exemplo uma possível solução simples para um computador - desligando em países com aquecimento de clima frio para melhorar a saúde das pessoas e aumentar sua resistência, que "pode chegar à cabeça da inteligência artificial."

Imagem
Imagem

Além disso, Bostrom também levanta o problema de lascar o cérebro humano para aumentar nossa biointeligência. “De muitas maneiras, esse procedimento pode ser útil se todos os processos forem controlados, mas o que acontece se o chip implantado puder se reprogramar? A quais consequências isso pode levar - ao surgimento de um super-homem ou de um computador que só se parecerá com um humano? " - pergunta o professor. A forma como os computadores resolvem os problemas humanos é muito diferente da nossa. Por exemplo, no xadrez, o cérebro humano considera apenas um conjunto estreito de movimentos, escolhendo a melhor opção entre eles. Por sua vez, o computador considera todos os movimentos possíveis, escolhendo o melhor. Ao mesmo tempo, o computador não espera perturbar ou surpreender seu oponente no jogo. Ao contrário de um ser humano, jogando xadrez, um computador pode fazer um movimento astuto e sutil apenas por acidente. A inteligência artificial pode calcular da melhor maneira - para eliminar o erro de qualquer sistema removendo o "fator humano" de lá, mas, ao contrário de um ser humano, um robô não está pronto para realizar proezas que salvariam a vida das pessoas.

Entre outras coisas, o aumento do número de máquinas inteligentes representa o palco de uma nova revolução industrial. Por sua vez, isso significa que em um futuro próximo, a humanidade enfrentará mudanças sociais inevitáveis. Com o tempo, o trabalho se tornará o destino de especialistas altamente qualificados, já que quase todas as tarefas simples podem ser realizadas por robôs e outros mecanismos. Os cientistas acreditam que a inteligência artificial "precisa de um olho e um olho" para que nosso planeta não se transforme em um planeta de desenho animado "Zhelezyaka", que era habitado por robôs.

Em termos de automação cada vez maior dos processos produtivos, o futuro já chegou. O Fórum Econômico Mundial (WEF) apresentou seu relatório, segundo o qual a automação levará ao fato de que até 2020 mais de 5 milhões de pessoas que trabalham em várias áreas perderão seus empregos. Este é o impacto dos robôs e sistemas robóticos em nossas vidas. Para compilar o relatório, os funcionários do WEF usaram dados de 13,5 milhões de funcionários em todo o mundo. Segundo eles, até 2020, a necessidade total de mais de 7 milhões de empregos desaparecerá, enquanto o crescimento esperado do emprego em outras indústrias será de pouco mais de 2 milhões de empregos.

Recomendado: