Inteligência artificial. Parte dois: extinção ou imortalidade?

Índice:

Inteligência artificial. Parte dois: extinção ou imortalidade?
Inteligência artificial. Parte dois: extinção ou imortalidade?

Vídeo: Inteligência artificial. Parte dois: extinção ou imortalidade?

Vídeo: Inteligência artificial. Parte dois: extinção ou imortalidade?
Vídeo: LÍNGUA PORTUGUESA - TERMOS DA ORAÇÃO - SOLDADO PMMG - Prof. Júnior Carvalho 2024, Abril
Anonim
Inteligência artificial. Parte dois: extinção ou imortalidade?
Inteligência artificial. Parte dois: extinção ou imortalidade?

Antes de você está a segunda parte de um artigo da série "Espere, como tudo isso pode ser real, por que ainda não é falado em cada esquina." Na série anterior, soube-se que uma explosão de inteligência está gradualmente se aproximando das pessoas do planeta Terra, ela está tentando se desenvolver de uma inteligência estreitamente focada para uma inteligência universal e, finalmente, uma superinteligência artificial.

“Talvez estejamos enfrentando um problema extremamente difícil, e não se sabe quanto tempo é reservado para sua solução, mas o futuro da humanidade pode depender de sua solução.” - Nick Bostrom.

A primeira parte do artigo começou inocentemente. Discutimos inteligência artificial estritamente focada (IA, que se especializa em resolver um problema específico como determinar rotas ou jogar xadrez), há muito disso em nosso mundo. Em seguida, eles analisaram por que é tão difícil desenvolver a inteligência artificial direcional geral (AGI, ou IA, que, em termos de capacidades intelectuais, pode ser comparada com a de um humano na resolução de qualquer problema), é tão difícil. Concluímos que a taxa exponencial de avanço tecnológico sugere que a AGI pode estar chegando em breve. No final, decidimos que assim que as máquinas alcançassem a inteligência humana, o seguinte poderia acontecer imediatamente:

Imagem
Imagem
Imagem
Imagem
Imagem
Imagem
Imagem
Imagem

Como de costume, olhamos para a tela, não acreditando que a superinteligência artificial (ISI, que é muito mais inteligente do que qualquer pessoa) possa aparecer durante a nossa vida, e escolhendo emoções que melhor refletem nossa opinião sobre o assunto.

Antes de mergulharmos nas especificidades do ISI, vamos nos lembrar o que significa para uma máquina ser superinteligente.

A principal diferença está entre a superinteligência rápida e a superinteligência de qualidade. Freqüentemente, a primeira coisa que vem à mente quando se pensa em um computador superinteligente é que ele pode pensar muito mais rápido do que uma pessoa - milhões de vezes mais rápido, e em cinco minutos compreenderá o que uma pessoa levaria dez anos. ("Eu sei kung fu!")

Parece impressionante, e o ISI realmente deveria pensar mais rápido do que qualquer uma das pessoas - mas a principal característica que os separa será a qualidade de sua inteligência, que é completamente diferente. Os humanos são muito mais espertos do que os macacos, não porque pensam mais rápido, mas porque seus cérebros contêm vários módulos cognitivos engenhosos que realizam representações linguísticas complexas, planejamento de longo prazo, pensamento abstrato, dos quais os macacos não são capazes. Se você acelerar o cérebro de um macaco mil vezes, ele não ficará mais inteligente do que nós - mesmo depois de dez anos não será capaz de montar um construtor de acordo com as instruções, o que levaria uma pessoa no máximo algumas horas. Há coisas que um macaco nunca aprenderá, não importa quantas horas passe ou quão rápido seu cérebro funcione.

Além disso, o macaco não sabe quão humanamente, porque seu cérebro simplesmente não é capaz de perceber a existência de outros mundos - o macaco pode saber o que é uma pessoa e o que é um arranha-céu, mas nunca vai entender que um arranha-céu foi construído por pessoas. Em seu mundo, tudo pertence à natureza, e o macaco não só não pode construir um arranha-céu, mas também entende que qualquer um pode construí-lo. E isso é o resultado de uma pequena diferença na qualidade da inteligência.

No esquema geral de inteligência de que estamos falando, ou simplesmente pelos padrões dos seres biológicos, a diferença na qualidade da inteligência entre humanos e macacos é minúscula. No artigo anterior, colocamos as habilidades cognitivas biológicas em uma escada:

Imagem
Imagem

Para entender a seriedade de uma máquina superinteligente, coloque-a dois degraus acima da pessoa na escada. Esta máquina pode ser apenas um pouco superinteligente, mas sua superioridade sobre nossas habilidades cognitivas será a mesma que a nossa - sobre os macacos. E assim como um chimpanzé nunca compreenderá que um arranha-céu pode ser construído, talvez nunca possamos entender o que uma máquina um par de degraus acima compreenderá, mesmo que a máquina tente nos explicar. Mas são apenas algumas etapas. A máquina mais inteligente verá formigas em nós - ela nos ensinará as coisas mais simples de sua posição por anos, e essas tentativas serão completamente inúteis.

O tipo de superinteligência de que falaremos hoje está muito além dessa escada. Esta é uma explosão de inteligência - quando quanto mais inteligente um carro se torna, mais rápido ele pode aumentar sua própria inteligência, aumentando gradualmente o ímpeto. Pode levar anos para uma máquina como essa superar os chimpanzés em inteligência, mas talvez algumas horas para nos superar em alguns pontos. A partir desse momento, o carro já consegue pular quatro degraus a cada segundo. Por isso devemos entender que logo após aparecer a primeira notícia de que a máquina atingiu o nível de inteligência humana, poderemos enfrentar a realidade da coexistência na Terra com algo que estará muito mais alto do que nós nesta escada (ou talvez, e milhões de vezes mais):

Imagem
Imagem

E já que estabelecemos que é completamente inútil tentar entender o poder de uma máquina que está apenas dois degraus acima de nós, vamos definir de uma vez por todas que não há como entender o que o ISI fará e quais as consequências de isso será para nós. Quem afirma o contrário simplesmente não entende o que significa superinteligência.

A evolução desenvolveu lenta e gradualmente o cérebro biológico ao longo de centenas de milhões de anos e, se os humanos criarem uma máquina superinteligente, de certo modo transcenderemos a evolução. Ou será parte da evolução - talvez a evolução funcione de tal forma que a inteligência se desenvolva gradualmente até atingir um ponto de inflexão que anuncia um novo futuro para todos os seres vivos:

Imagem
Imagem

Por razões que discutiremos mais tarde, uma grande parte da comunidade científica acredita que a questão não é se chegaremos a esse ponto de inflexão, mas quando.

Onde vamos parar depois disso?

Acho que ninguém neste mundo, nem eu nem você, será capaz de dizer o que acontecerá quando chegarmos ao ponto de inflexão. O filósofo de Oxford e principal teórico da IA, Nick Bostrom, acredita que podemos dividir todos os resultados possíveis em duas categorias amplas.

Em primeiro lugar, olhando para a história, sabemos o seguinte sobre a vida: as espécies aparecem, existem por um certo tempo e então inevitavelmente caem da trave de equilíbrio e morrem.

Imagem
Imagem

"Todas as espécies morrem" tem sido uma regra tão confiável na história quanto "todas as pessoas morrem um dia". 99,9% das espécies caíram de um tronco de vida, e é bastante claro que se uma espécie ficar pendurada nesse tronco por muito tempo, uma rajada de vento natural ou um asteróide repentino derrubará o tronco. Bostrom chama de extinção o estado de um atrator - um lugar onde todas as espécies se equilibram para não cair onde nenhuma espécie voltou.

E embora a maioria dos cientistas admita que o ISI terá a capacidade de condenar as pessoas à extinção, muitos também acreditam que o uso dos recursos do ISI permitirá que os indivíduos (e a espécie como um todo) alcancem o segundo estado do atrator - a imortalidade da espécie. Bostrom acredita que a imortalidade de uma espécie é tanto um atrator quanto a extinção de uma espécie, ou seja, se chegarmos a isso, estaremos condenados à existência eterna. Assim, mesmo que todas as espécies até agora caíssem deste galho no redemoinho da extinção, Bostrom acredita que o tronco tem dois lados, e simplesmente não apareceu na Terra uma inteligência que pudesse saber como cair para o outro lado.

Imagem
Imagem

Se Bostrom e outros estiverem certos, e a julgar por todas as informações disponíveis para nós, eles podem muito bem estar, precisamos aceitar dois fatos muito chocantes:

O surgimento do ISI pela primeira vez na história abrirá o caminho para que uma espécie alcance a imortalidade e saia do ciclo fatal de extinção.

O surgimento do ISI terá um impacto tão inimaginavelmente grande que, muito provavelmente, empurrará a humanidade para fora deste registro em uma direção ou outra.

É possível que, quando a evolução atinge tal ponto de inflexão, sempre acaba com a relação das pessoas com o fluxo da vida e cria um novo mundo, com ou sem pessoas.

Isso leva a uma questão interessante que só um chato não faria: quando chegaremos a esse ponto de inflexão e onde ele nos colocará? Ninguém no mundo sabe a resposta para essa dupla pergunta, mas muitas pessoas inteligentes tentaram descobri-la por décadas. No restante do artigo, descobriremos de onde eles vieram.

* * *

Vamos começar com a primeira parte desta questão: quando devemos chegar ao ponto de inflexão? Em outras palavras: quanto tempo resta até que a primeira máquina alcance a superinteligência?

As opiniões variam de caso para caso. Muitos, incluindo o professor Vernor Vinge, o cientista Ben Herzel, o cofundador da Sun Microsystems Bill Joy, o futurista Ray Kurzweil, concordaram com o especialista em aprendizado de máquina Jeremy Howard quando ele apresentou o seguinte gráfico no TED Talk:

Imagem
Imagem

Essas pessoas compartilham a visão de que o ISI está chegando - esse crescimento exponencial, que parece lento para nós hoje, literalmente explodirá nas próximas décadas.

Outros, como o cofundador da Microsoft Paul Allen, o psicólogo pesquisador Gary Marcus, o especialista em computação Ernest Davis e o empresário de tecnologia Mitch Kapor, acreditam que pensadores como Kurzweil estão subestimando seriamente a magnitude do problema e acham que não estamos nem perto de um ponto de inflexão.

O campo de Kurzweil argumenta que a única subestimação que ocorre é o desprezo pelo crescimento exponencial, e os que duvidam podem ser comparados àqueles que olharam para a internet crescendo lentamente em 1985 e argumentaram que ela não teria impacto no mundo em um futuro próximo.

Os que duvidam podem se esquivar de que é mais difícil para o progresso dar cada passo subsequente quando se trata do desenvolvimento exponencial da inteligência, que neutraliza a natureza exponencial típica do progresso tecnológico. Etc.

O terceiro campo, no qual Nick Bostrom está, discorda tanto do primeiro quanto do segundo, argumentando que a) tudo isso pode absolutamente acontecer em um futuro próximo; eb) não há garantia de que isso acontecerá ou de que demorará mais.

Outros, como o filósofo Hubert Dreyfus, acreditam que todos os três grupos acreditam ingenuamente que haverá um ponto de inflexão e que provavelmente nunca chegaremos ao ISI.

O que acontece quando colocamos todas essas opiniões juntas?

Em 2013, Bostrom conduziu uma pesquisa na qual entrevistou centenas de especialistas em IA em uma série de conferências sobre o seguinte tópico: "Quais serão suas previsões para alcançar o AGI no nível humano?" e nos pediu para nomear um ano otimista (em que teremos AGI com uma chance de 10 por cento), uma suposição realista (um ano em que teremos AGI com uma probabilidade de 50 por cento) e uma suposição confiante (o primeiro ano em que AGI aparecerá como probabilidade de 90 por cento). Aqui estão os resultados:

* Ano otimista médio (10%): 2022

* Ano realista médio (50%): 2040

* Ano pessimista médio (90%): 2075

Os entrevistados médios acreditam que em 25 anos teremos AGI ao invés de não. Uma chance de 90 por cento de ocorrer AGI em 2075 significa que, se você ainda for muito jovem agora, é mais provável que isso aconteça durante a sua vida.

Um estudo separado conduzido recentemente por James Barratt (autor do livro aclamado e muito bom Our Latest Invention, trechos de Apresentei à atenção dos leitores Hi-News.ru) e Ben Hertzel na Conferência AGI, a Conferência AGI anual, simplesmente mostraram as opiniões das pessoas sobre o ano em que chegarmos a AGI: 2030, 2050, 2100, mais tarde ou nunca. Aqui estão os resultados:

* 2030: 42% dos entrevistados

* 2050: 25%

* 2100: 20%

Depois de 2100: 10%

Nunca: 2%

Semelhante aos resultados de Bostrom. Na pesquisa de Barratt, mais de dois terços dos entrevistados acreditam que a AGI estará aqui em 2050, e menos da metade acredita que a AGI aparecerá nos próximos 15 anos. Também é surpreendente que apenas 2% dos entrevistados, em princípio, não enxergam a AGI em nosso futuro.

Mas AGI não é um ponto de inflexão como o ISI. Quando, segundo especialistas, teremos um ISI?

Bostrom perguntou aos especialistas quando chegaremos ao ASI: a) dois anos após atingir o AGI (ou seja, quase instantaneamente devido a uma explosão de inteligência); b) após 30 anos. Resultados?

A opinião média é que a rápida transição de AGI para ISI ocorrerá com uma probabilidade de 10%, mas em 30 anos ou menos ela ocorrerá com uma probabilidade de 75%.

A partir desses dados, não sabemos em que data os entrevistados chamariam de 50 por cento de chance de um ASI, mas com base nas duas respostas acima, vamos supor que seja 20 anos. Ou seja, os maiores especialistas em IA do mundo acreditam que o ponto de inflexão virá em 2060 (o AGI aparecerá em 2040 + e levará 20 anos para a transição de AGI para ISI).

Imagem
Imagem

Claro, todas as estatísticas acima são especulativas e simplesmente representam a opinião de especialistas no campo da inteligência artificial, mas também indicam que a maioria das pessoas interessadas concorda que, em 2060, a IA provavelmente chegará. Em apenas 45 anos.

Vamos passar para a segunda pergunta. Quando chegarmos ao ponto de inflexão, que lado da escolha fatal nos determinará?

A superinteligência terá o poder mais poderoso e a questão crítica para nós será a seguinte:

Quem ou o que controlará esse poder e qual será sua motivação?

A resposta a esta pergunta dependerá se o ISI obtém um desenvolvimento incrivelmente poderoso, um desenvolvimento incomensuravelmente assustador ou algo intermediário.

Obviamente, a comunidade de especialistas também está tentando responder a essas perguntas. A pesquisa de Bostrom analisou a probabilidade de possíveis consequências do impacto da AGI na humanidade e descobriu que, com 52 por cento de chance, tudo correrá muito bem e com 31 por cento de chance de tudo correr mal ou extremamente mal. A enquete anexa ao final da parte anterior deste tópico, realizada entre vocês, queridos leitores da Hi-News, mostrou os mesmos resultados. Para um resultado relativamente neutro, a probabilidade era de apenas 17%. Em outras palavras, todos nós acreditamos que a AGI será um grande negócio. Vale destacar também que esta pesquisa diz respeito ao surgimento do AGI - no caso do ISI, o percentual de neutralidade será menor.

Antes de nos aprofundarmos no pensamento sobre os lados bons e ruins da questão, vamos combinar os dois lados da questão - "quando isso vai acontecer?" e "isso é bom ou ruim?" em uma tabela que cobre os pontos de vista da maioria dos especialistas.

Imagem
Imagem

Falaremos sobre o acampamento principal em um minuto, mas primeiro decida sua posição. Provavelmente, você está no mesmo lugar que eu antes de começar a trabalhar neste tópico. Existem vários motivos pelos quais as pessoas não pensam sobre este tópico:

* Como mencionado na primeira parte, os filmes confundiram seriamente pessoas e fatos, apresentando cenários irreais com inteligência artificial, o que levou ao fato de que não devemos levar a IA a sério de forma alguma. James Barratt comparou esta situação a ser emitida pelos Centros de Controle de Doenças (CDC) com um sério aviso sobre os vampiros em nosso futuro.

* Devido aos chamados vieses cognitivos, é muito difícil para nós acreditar que algo é real até que tenhamos uma prova. Pode-se imaginar com segurança os cientistas da computação de 1988 discutindo regularmente as consequências de longo alcance da Internet e o que ela poderia se tornar, mas as pessoas dificilmente acreditariam que ela mudaria suas vidas até que realmente aconteceu. Acontece que os computadores não sabiam como fazer isso em 1988, e as pessoas simplesmente olhavam para seus computadores e pensavam: “Sério? É isso que vai mudar o mundo? Sua imaginação era limitada pelo que aprenderam com a experiência pessoal, eles sabiam o que era um computador e era difícil imaginar do que um computador seria capaz no futuro. O mesmo está acontecendo agora com a IA. Ouvimos dizer que se tornará uma coisa séria, mas como ainda não o encontramos cara a cara e, em geral, observamos manifestações bastante fracas de IA em nosso mundo moderno, é bastante difícil para nós acreditar que isso irá radicalmente mudar nossa vida. É contra esses preconceitos que numerosos especialistas de todos os campos, assim como pessoas interessadas, se opõem a tentar chamar nossa atenção através do barulho do egocentrismo coletivo cotidiano.

* Mesmo que acreditássemos em tudo isso - quantas vezes hoje você já pensou no fato de que passará o resto da eternidade no nada? Um pouco, concordo. Mesmo que esse fato seja muito mais importante do que qualquer coisa que você faça todos os dias. Isso ocorre porque nossos cérebros geralmente estão focados em coisas pequenas e cotidianas, não importa o quão delirante seja a situação de longo prazo em que nos encontramos. É que somos feitos.

Um dos objetivos deste artigo é tirar você do campo chamado "Gosto de pensar em outras coisas" e colocá-lo no campo de especialistas, mesmo que você esteja apenas no cruzamento entre as duas linhas pontilhadas do quadrado acima, completamente indeciso.

No decorrer da pesquisa, torna-se óbvio que as opiniões da maioria das pessoas rapidamente derivam para o "campo principal", e três quartos dos especialistas caem em dois subcampos no campo principal.

Imagem
Imagem

Visitaremos esses dois acampamentos na íntegra. Vamos começar com diversão.

Por que o futuro pode ser nosso maior sonho?

À medida que exploramos o mundo da IA, encontramos surpreendentemente muitas pessoas em nossa zona de conforto. As pessoas no quadrado superior direito estão vibrando de empolgação. Eles acreditam que cairemos no lado bom do log, e também acreditam que inevitavelmente chegaremos a isso. Para eles, o futuro é tudo apenas o melhor que só pode ser sonhado.

O que distingue essas pessoas de outros pensadores não é que eles queiram estar do lado feliz - mas que eles têm certeza de que é ela quem está esperando por nós.

Essa confiança surge da controvérsia. Os críticos acreditam que vem de uma empolgação deslumbrante que ofusca os potenciais lados negativos. Mas os proponentes dizem que as previsões sombrias são sempre ingênuas; a tecnologia continua e sempre nos ajudará mais do que nos prejudicar.

Você é livre para escolher qualquer uma dessas opiniões, mas deixe o ceticismo de lado e dê uma boa olhada no lado feliz da trave de equilíbrio, tentando aceitar o fato de que tudo o que você leu pode já ter acontecido. Se você mostrasse aos caçadores-coletores nosso mundo de conforto, tecnologia e abundância sem fim, pareceria a eles uma ficção mágica - e nos comportamos de forma bastante modesta, incapaz de admitir que a mesma transformação incompreensível nos espera no futuro.

Nick Bostrom descreve três caminhos que um sistema de IA superinteligente pode seguir:

* Um oráculo que pode responder a qualquer pergunta exata, incluindo perguntas difíceis que os humanos não podem responder - por exemplo, "como tornar o motor de um carro mais eficiente?" Google é um tipo primitivo de "oráculo".

* Um gênio que executará qualquer comando de alto nível - usando montador molecular para criar uma versão nova e mais eficiente de um motor de automóvel - e estará esperando pelo próximo comando.

* Um soberano que terá amplo acesso e capacidade de funcionar livremente no mundo, tomando suas próprias decisões e melhorando o processo. Ele vai inventar um meio de transporte privado mais barato, rápido e seguro do que um carro.

Essas perguntas e tarefas, que nos parecem difíceis, parecerão ao sistema superinteligente como se alguém pedisse para melhorar a situação “meu lápis caiu da mesa”, no qual você simplesmente o pegaria e o colocaria de volta.

Eliezer Yudkowski, um especialista americano em inteligência artificial, colocou bem:

“Não existem problemas difíceis, apenas problemas difíceis para um determinado nível de inteligência. Suba um degrau acima (em termos de inteligência) e alguns problemas subitamente passarão da categoria de "impossível" para o campo do "óbvio". Um degrau acima - e todos se tornarão óbvios."

Existem muitos cientistas, inventores e empresários impacientes que escolheram uma zona de conforto confiante em nossa mesa, mas só precisamos de um guia para caminhar pelo melhor neste melhor dos mundos.

Ray Kurzweil é ambíguo. Alguns idolatram suas idéias, alguns o desprezam. Alguns ficam no meio - Douglas Hofstadter, discutindo as ideias dos livros de Kurzweil, eloquentemente observou que "é como se você pegasse muita comida boa e um cocô de cachorro e depois misturasse tudo de uma maneira que é impossível entender o que é bom e o que é ruim."

Quer você goste das idéias dele ou não, é impossível ignorá-las sem uma sombra de interesse. Ele começou a inventar coisas quando era adolescente e, nos anos seguintes, inventou várias coisas importantes, incluindo o primeiro scanner de mesa, o primeiro scanner a converter texto em fala, o conhecido sintetizador musical Kurzweil (o primeiro piano elétrico de verdade) e o primeiro reconhecedor de fala com sucesso comercial. Ele também é autor de cinco livros sensacionais. Kurzweil é apreciado por suas previsões ousadas e seu histórico é muito bom - no final dos anos 80, quando a Internet ainda estava em sua infância, ele previu que nos anos 2000 a web se tornaria um fenômeno global. O Wall Street Journal chamou Kurzweil de "gênio inquieto", a Forbes de "máquina pensante global", Inc. Revista - "herdeiro legítimo de Edison", Bill Gates - "o melhor daqueles que predizem o futuro da inteligência artificial." Em 2012, o cofundador do Google, Larry Page, convidou Kurzweil para o cargo de CTO. Em 2011, ele co-fundou a Singularity University, que é hospedada pela NASA e parcialmente patrocinada pelo Google.

Sua biografia é importante. Quando Kurzweil fala sobre sua visão do futuro, parece uma loucura, mas a coisa realmente louca sobre isso é que ele está longe de ser louco - ele é uma pessoa incrivelmente inteligente, educada e sã. Você pode pensar que ele está errado em suas previsões, mas ele não é um tolo. As previsões de Kurzweil são compartilhadas por muitos especialistas em zonas de conforto, Peter Diamandis e Ben Herzel. Isso é o que ele acha que vai acontecer.

Cronologia

Kurzweil acredita que os computadores atingirão o nível de inteligência artificial geral (AGI) em 2029, e em 2045 não teremos apenas superinteligência artificial, mas também um mundo completamente novo - o tempo da chamada singularidade. Sua cronologia de IA ainda é considerada absurdamente exagerada, mas nos últimos 15 anos, o rápido desenvolvimento de sistemas de inteligência artificial (IA) altamente focados forçou muitos especialistas a ficarem do lado de Kurzweil. Suas previsões são ainda mais ambiciosas do que as da pesquisa de Bostrom (AGI em 2040, ISI em 2060), mas não muito.

De acordo com Kurzweil, a Singularidade de 2045 está sendo impulsionada por três revoluções simultâneas em biotecnologia, nanotecnologia e, mais importante, IA. Mas antes de continuarmos - e a nanotecnologia está seguindo de perto a inteligência artificial - vamos dar um momento para a nanotecnologia.

Imagem
Imagem

Algumas palavras sobre nanotecnologia

Normalmente chamamos de tecnologias de nanotecnologia que lidam com a manipulação da matéria na faixa de 1-100 nanômetros. Um nanômetro é um bilionésimo de um metro ou um milionésimo de um milímetro; dentro da faixa de 1-100 nanômetros, vírus (100 nm de diâmetro), DNA (10 nm de largura), moléculas de hemoglobina (5 nm), glicose (1 nm) e outros podem ser acomodados. Se a nanotecnologia algum dia ficar sujeita a nós, o próximo passo será manipular átomos individuais que são menores do que uma ordem de magnitude (~, 1 nm).

Para entender onde os humanos enfrentam problemas ao tentar manipular a matéria em tal escala, vamos pular para uma escala maior. A Estação Espacial Internacional está 481 quilômetros acima da Terra. Se os humanos fossem gigantes e atingissem a ISS com suas cabeças, seriam 250.000 vezes maiores do que são agora. Se você ampliar qualquer coisa de 1 a 100 nanômetros 250.000 vezes, terá 2,5 centímetros. A nanotecnologia é o equivalente a um ser humano orbitando a ISS, tentando manipular coisas do tamanho de um grão de areia ou de um globo ocular. Para chegar ao próximo nível - o controle de átomos individuais - o gigante terá que posicionar cuidadosamente objetos com diâmetro de 1/40 milímetro. As pessoas comuns precisarão de um microscópio para vê-los.

Pela primeira vez, Richard Feynman falou sobre nanotecnologia em 1959. Então ele disse: “Os princípios da física, até onde posso dizer, não falam contra a possibilidade de controlar as coisas átomo por átomo. Em princípio, um físico poderia sintetizar qualquer produto químico que um químico anotou. Como? Colocando átomos onde o químico diz para obter a substância. Essa é toda a simplicidade. Se você sabe como mover moléculas ou átomos individuais, pode fazer quase tudo.

A nanotecnologia se tornou um campo científico sério em 1986, quando o engenheiro Eric Drexler apresentou seus fundamentos em seu livro seminal Machines of Creation, mas o próprio Drexler acredita que aqueles que querem aprender mais sobre as idéias modernas em nanotecnologia deveriam ler seu livro de 2013. Full Abundance (Radical Abundância).

Algumas palavras sobre "grey goo"

Nós nos aprofundamos na nanotecnologia. Em particular, o tópico "grey goo" é um dos tópicos não muito agradáveis no campo da nanotecnologia, que não pode ser ignorado. Versões mais antigas da teoria da nanotecnologia propunham um método de nano-montagem envolvendo a criação de trilhões de minúsculos nanorrobôs que trabalhariam juntos para criar algo. Uma maneira de criar trilhões de nanorrobôs é criar um que possa se auto-replicar, ou seja, de um para dois, de dois para quatro e assim por diante. Vários trilhões de nanorrobôs aparecerão em um dia. Este é o poder do crescimento exponencial. Engraçado, não é?

É engraçado, mas exatamente até que leve ao apocalipse. O problema é que o poder do crescimento exponencial, que o torna uma maneira bastante conveniente de criar rapidamente um trilhão de nanorrobôs, torna a auto-replicação uma coisa assustadora a longo prazo. E se o sistema travar e, em vez de interromper a replicação por alguns trilhões, os nanorrobôs continuarem a se reproduzir? E se todo esse processo depender de carbono? A biomassa da Terra contém 10 ^ 45 átomos de carbono. Um nanobot deve ter cerca de 10 ^ 6 átomos de carbono, então 10 ^ 39 nanobots devorarão toda a vida na Terra em apenas 130 replicações. Um oceano de nanobots ("gosma cinza") inundará o planeta. Os cientistas acreditam que os nanobots podem se replicar em 100 segundos, o que significa que um simples erro pode matar toda a vida na Terra em apenas 3,5 horas.

Pode ser ainda pior - se terroristas e especialistas desfavoráveis chegarem às mãos da nanotecnologia. Eles poderiam criar vários trilhões de nanorrobôs e programá-los para se espalharem silenciosamente pelo mundo em algumas semanas. Então, ao toque de um botão, em apenas 90 minutos eles vão comer de tudo, sem chance.

Embora essa história de terror tenha sido amplamente discutida durante anos, a boa notícia é que é apenas uma história de terror. Eric Drexler, que cunhou o termo "gosma cinza", disse recentemente o seguinte: “As pessoas adoram histórias de terror, e esta é uma das histórias de terror de zumbis. Essa ideia em si já está comendo cérebros."

Assim que chegarmos ao fundo da nanotecnologia, podemos usá-la para criar dispositivos técnicos, roupas, alimentos, bioprodutos - células sanguíneas, lutadores contra vírus e câncer, tecido muscular e assim por diante - seja o que for. E em um mundo que usa a nanotecnologia, o custo de um material não estará mais vinculado à sua escassez ou à complexidade de seu processo de fabricação, mas sim à complexidade de sua estrutura atômica. No mundo da nanotecnologia, um diamante pode ser mais barato do que uma borracha.

Não estamos nem perto disso ainda. E não está totalmente claro se subestimamos ou superestimamos a complexidade desse caminho. No entanto, tudo vai a ponto de a nanotecnologia não estar longe. Kurzweil presume que na década de 2020 nós os teremos. Os estados do mundo sabem que a nanotecnologia pode prometer um grande futuro e, portanto, estão investindo muitos bilhões nisso.

Imagine as possibilidades que um computador superinteligente teria se chegasse a um montador confiável em nanoescala. Mas a nanotecnologia é nossa ideia, e estamos tentando montá-la, é difícil para nós. E se eles forem apenas uma piada para o sistema ISI, e o próprio ISI vier com tecnologias que serão muitas vezes mais poderosas do que qualquer coisa que possamos, em princípio, supor? Concordamos: ninguém pode imaginar do que a superinteligência artificial será capaz? Acredita-se que nossos cérebros são incapazes de prever nem mesmo o mínimo do que vai acontecer.

O que a IA poderia fazer por nós?

Imagem
Imagem

Armado com a superinteligência e toda a tecnologia que a superinteligência poderia criar, o ISI provavelmente será capaz de resolver todos os problemas da humanidade. Aquecimento global? O ISI irá primeiro interromper as emissões de carbono inventando uma série de maneiras eficientes de gerar energia que não estão relacionadas aos combustíveis fósseis. Ele então irá apresentar uma maneira inovadora e eficaz de remover o excesso de CO2 da atmosfera. Câncer e outras doenças? Não é um problema - a saúde e a medicina mudarão de maneiras inimagináveis. Fome mundial? O ISI usará a nanotecnologia para criar carne idêntica à carne natural, do zero, real.

A nanotecnologia será capaz de transformar uma pilha de lixo em um tonel de carne fresca ou outro alimento (não necessariamente mesmo em sua forma usual - imagine um cubo gigante de maçã) e distribuir todos esses alimentos ao redor do mundo usando sistemas de transporte avançados. Claro, isso será ótimo para animais que não precisam mais morrer para comer. O ISI também pode fazer muitas outras coisas, como preservar espécies em extinção ou até mesmo trazer de volta espécies extintas do DNA armazenado. O ISI pode resolver nossos problemas macroeconômicos mais difíceis - nossos debates econômicos mais difíceis, questões éticas e filosóficas, comércio global - todos os quais serão dolorosamente óbvios para o ISI.

Mas há algo muito especial que o ISI poderia fazer por nós. Sedutor e tentador que mudaria tudo: ISI pode nos ajudar a lidar com a mortalidade … Compreendendo gradualmente as capacidades da IA, talvez você reconsidere todas as suas idéias sobre a morte.

Não havia razão para a evolução estender nossa expectativa de vida por mais tempo do que agora. Se vivermos o suficiente para dar à luz e criar filhos a ponto de eles poderem se defender sozinhos, a evolução é o suficiente. Do ponto de vista evolutivo, mais de 30 anos são suficientes para o desenvolvimento, e não há razão para mutações prolongarem a vida e reduzirem o valor da seleção natural. William Butler Yates chamou nossa espécie de "uma alma ligada a um animal moribundo". Não é muito divertido.

E como todos nós morremos um dia, vivemos com a ideia de que a morte é inevitável. Pensamos no envelhecimento ao longo do tempo - continuando a seguir em frente e não sendo capazes de interromper esse processo. Mas o pensamento da morte é traiçoeiro: capturados por ela, nos esquecemos de viver. Richard Feynman escreveu:

“Há uma coisa maravilhosa na biologia: não há nada nesta ciência que fale da necessidade da morte. Se quisermos criar uma máquina de movimento perpétuo, percebemos que encontramos leis suficientes na física que indicam a impossibilidade disso ou que as leis estão erradas. Mas não há nada na biologia que indique a inevitabilidade da morte. Isso me leva a crer que não é tão inevitável, e é apenas uma questão de tempo até que os biólogos descubram a causa desse problema, dessa terrível doença universal, ela será curada”.

O fato é que o envelhecimento não tem nada a ver com o tempo. O envelhecimento é quando os materiais físicos do corpo se desgastam. As peças do carro também se degradam - mas o envelhecimento é inevitável? Se você consertar seu carro à medida que as peças se desgastam, ele durará para sempre. O corpo humano não é diferente - apenas mais complexo.

Kurzweil fala sobre nanorrobôs inteligentes e conectados por Wi-Fi na corrente sanguínea que podem realizar inúmeras tarefas para a saúde humana, incluindo consertar ou substituir regularmente células desgastadas em qualquer parte do corpo. Melhorar esse processo (ou encontrar uma alternativa sugerida por um ASI mais inteligente) não apenas manterá o corpo saudável, mas também reverterá o envelhecimento. A diferença entre o corpo de uma pessoa de 60 e de uma de 30 é um punhado de problemas físicos que podem ser corrigidos com a tecnologia certa. O ISI poderia construir um carro no qual uma pessoa entraria aos 60 anos e sairia quando tivesse 30 anos.

Até mesmo um cérebro degradado pode ser renovado. O ISI certamente saberia fazer isso sem afetar os dados do cérebro (personalidade, memórias, etc.). Um homem de 90 anos sofrendo de degradação cerebral completa pode passar por um retreinamento, se renovar e retornar ao início de sua vida. Pode parecer absurdo, mas o corpo é um punhado de átomos, e o ISI certamente poderia facilmente manipulá-los, quaisquer estruturas atômicas. Não é tão absurdo.

Kurzweil também acredita que os materiais artificiais se integrarão cada vez mais ao corpo com o passar do tempo. Para começar, os órgãos poderiam ser substituídos por versões de máquinas superavançadas que durariam para sempre e nunca falhariam. Então poderíamos fazer um redesenho completo do corpo, substituindo os glóbulos vermelhos por nanorrobôs perfeitos que se movem por conta própria, eliminando por completo a necessidade de um coração. Também poderíamos melhorar nossas habilidades cognitivas, começar a pensar bilhões de vezes mais rápido e acessar todas as informações disponíveis para a humanidade por meio da nuvem.

As possibilidades de compreensão de novos horizontes seriam verdadeiramente infinitas. As pessoas conseguiram dar ao sexo um novo propósito, fazem isso por prazer, não apenas para reprodução. Kurzweil acredita que podemos fazer o mesmo com a comida. Os nanobots podem fornecer nutrição ideal diretamente para as células do corpo, permitindo que substâncias prejudiciais à saúde passem pelo corpo. O teórico da nanotecnologia Robert Freitas já desenvolveu um substituto para as células do sangue, que, quando implementado no corpo humano, pode permitir que ele não respire por 15 minutos - e isso foi inventado por uma pessoa. Imagine quando o ISI ganhará poder.

Afinal, Kurzweil acredita que os humanos chegarão ao ponto em que se tornarão completamente artificiais; a época em que olhamos para materiais biológicos e pensamos sobre como eles eram primitivos; momento em que leremos sobre os primeiros estágios da história humana, maravilhados com a forma como germes, acidentes, doenças ou simplesmente a velhice podem matar uma pessoa contra sua vontade. No final das contas, os humanos derrotarão sua própria biologia e se tornarão eternos - este é o caminho para o lado feliz da trave de equilíbrio de que falamos desde o início. E quem acredita nisso também tem certeza de que esse futuro nos espera muito, muito em breve.

Você provavelmente não ficará surpreso que as idéias de Kurzweil tenham recebido fortes críticas. Sua singularidade em 2045 e a subsequente vida eterna para as pessoas foi chamada de "ascensão dos nerds" ou "criação inteligente de pessoas com QI de 140". Outros questionaram o prazo otimista, a compreensão do corpo e do cérebro humanos, lembrando a lei de Moore, que ainda não foi embora. Para cada especialista que acredita nas ideias de Kurzweil, existem três que pensam que ele está errado.

Mas o mais interessante sobre isso é que a maioria dos especialistas que discordam dele, de modo geral, não dizem que isso é impossível. Em vez de dizer "besteira, isso nunca vai acontecer", eles dizem algo como "tudo isso vai acontecer se chegarmos ao ISI, mas esse é o problema." Bostrom, um dos aclamados especialistas em IA alertando para os perigos da IA, também admite:

“Quase não sobrou nenhum problema que a superinteligência não possa resolver, ou mesmo nos ajudar a resolver. Doença, pobreza, destruição ambiental, sofrimentos de todos os tipos - tudo isso superinteligência com a ajuda da nanotecnologia pode resolver em um momento. A superinteligência também pode nos dar uma vida útil ilimitada, parando e revertendo o processo de envelhecimento usando nanomedicina ou a capacidade de nos enviar para a nuvem. A superinteligência também pode criar oportunidades para aumentos infinitos nas capacidades intelectuais e emocionais; ele pode nos ajudar a criar um mundo no qual viveremos com alegria e compreensão, aproximando-nos de nossos ideais e regularmente realizando nossos sonhos."

Esta é uma citação de um dos críticos de Kurzweil, no entanto, que admite que tudo isso é possível se pudermos criar um ASI seguro. Kurzweil simplesmente definiu o que a superinteligência artificial deveria se tornar, se possível. E se ele é um bom deus.

A crítica mais óbvia aos defensores da zona de conforto é que eles podem estar completamente errados ao avaliar o futuro do ISI. Em seu livro The Singularity, Kurzweil dedicou 20 páginas de 700 ameaças ISI potenciais. A questão não é quando chegarmos ao ISI, a questão é qual será sua motivação. Kurzweil responde a essa pergunta com cautela: “O ISI se origina de muitos esforços díspares e será profundamente integrado à infraestrutura de nossa civilização. Na verdade, ele estará intimamente inserido em nosso corpo e cérebro. Ele refletirá nossos valores porque será um conosco."

Mas se a resposta for, por que tantas pessoas inteligentes neste mundo estão preocupadas com o futuro da inteligência artificial? Por que Stephen Hawking diz que o desenvolvimento do ISI "pode significar o fim da raça humana"? Bill Gates diz que "não entende as pessoas que não se importam" com isso. Elon Musk teme que estejamos "convocando um demônio". Por que muitos especialistas consideram o ISI a maior ameaça para a humanidade?

Falaremos sobre isso na próxima vez.

Recomendado: