Aqui está o porquê os cientistas pensam que você deve estar preocupado com a inteligência artificial

Ao longo dos últimos meses, você pode ter lido a cobertura em torno de um artigo, co-autoria de Stephen Hawking, discutindo os riscos associados com a inteligência artificial. O artigo sugere que a AI pode representar um risco grave para a raça humana. Hawking não está sozinho lá - Elon Musk e Peter Thiel são ambos figuras públicas intelectuais que expressaram preocupações semelhantes (Thiel investiu mais de US $ 1,3 milhões de pesquisar o assunto e possíveis soluções).

Video: Conversa entre Humano e Inteligência artificial é PERTUBADORA, Robo mata HUMANO,EU AVISEI QUE IA DAR

A cobertura do artigo de Hawking e os comentários de Musk tem sido, para não colocar um ponto demasiado fino sobre ele, um pouco jovial. O tom foi muito ‘olhar para esta coisa estranha todos esses geeks são preocupado.` Pouca consideração é dada à idéia de que se algumas das pessoas mais inteligentes na Terra estão avisando que algo poderia ser muito perigoso, ele só poderia ser vale a pena ouvir.

Isso é compreensível - inteligência artificial tomando conta do mundo certamente soa muito estranho e improvável, talvez por causa da enorme atenção dedicada a esta ideia por escritores de ficção científica. Então, o que todos estes, as pessoas racionais nominalmente sãs tão assustado?

O que é inteligência?

Para falar sobre o perigo de Inteligência Artificial, que poderia ser útil para entender o que é inteligência. A fim de melhor compreender a questão, vamos dar uma olhada em uma arquitetura de AI brinquedo usado por pesquisadores que estudam a teoria de raciocínio. Este brinquedo AI é chamado Aixi, e tem um número de propriedades úteis. É metas pode ser arbitrária, escala bem com o poder de computação, e seu design interno é muito limpo e simples.

Além disso, você pode implementar versões simples e práticas da arquitetura que pode fazer coisas como jogar Pacman, se quiser. Aixi é o produto de um pesquisador AI chamado Marcus Hutter, sem dúvida, o maior especialista em inteligência algorítmica. É ele falando no vídeo acima.

Aixi é surpreendentemente simples: ele tem três componentes principais: aprendiz, planejador, e função útil.

  • o aprendiz leva em seqüências de bits que correspondem a entrada sobre o mundo exterior, e busca através de programas de computador até encontrar aqueles que produzem as suas observações como saída. Esses programas, em conjunto, permitem-lo para fazer suposições sobre o que o futuro será semelhante, simplesmente executando cada programa para a frente e pesando a probabilidade do resultado pela duração do programa (uma implementação da Navalha de Occam).
  • o planejador busca através de ações possíveis que o agente poderia tomar, e usa o módulo aluno a prever o que aconteceria se ele levou cada um deles. Em seguida, ele classifica-os de acordo com o quão bom ou ruim os resultados previstos são, e escolhe o curso de ação que maximiza a bondade do resultado esperado multiplicado pela probabilidade esperada do alcançar.
  • O último módulo, o função útil, é um programa simples que leva em uma descrição de um estado futuro do mundo, e calcula uma pontuação de utilidade para ele. Esta pontuação utilitário é como bom ou mau que o resultado é, e é utilizado pelo planejador para avaliar estado mundial futuro. A função de utilidade pode ser arbitrária.
  • Tomados em conjunto, estes três componentes formam um otimizador, que otimiza para um objetivo particular, independentemente do mundo que se encontra.

Este modelo simples representa uma definição básica de um agente inteligente. O agente estuda seu ambiente, constrói modelos do mesmo, e, em seguida, usa esses modelos para encontrar o curso de ação que irá maximizar as chances de ele ficar o que quer. Aixi é semelhante em estrutura a um AI que joga xadrez ou outros jogos com regras conhecidas - exceto que ele é capaz de deduzir as regras do jogo, jogando-o, começando a partir do conhecimento zero.

Aixi, dado tempo suficiente para calcular, pode aprender a otimizar todo o sistema para qualquer objetivo, no entanto complexa. É um algoritmo geralmente inteligente. Note-se que esta não é a mesma coisa que ter inteligência humana-like (biologicamente inspirada AI é um tópico completamente diferente). Em outras palavras, Aixi pode ser capaz de enganar qualquer ser humano em qualquer tarefa intelectual (dado bastante poder de computação), mas ele pode não ser consciente de sua vitória.Giovanni Idili de OpenWorm: Brains, Worms, e Inteligência ArtificialGiovanni Idili de OpenWorm: Brains, Worms, e Inteligência ArtificialSimulando um cérebro humano é um maneiras, mas um projeto de código aberto está dando os primeiros passos vitais, simulando a neurologia e fisiologia de um dos animais mais simples conhecidos pela ciência. consulte Mais informação

headsculpture

Como AI prático, Aixi tem um monte de problemas. Primeiro, ele tem nenhuma maneira de encontrar os programas que produzem a saída é interessado. É um algoritmo de força bruta, o que significa que não é prático se você não acontecer de ter um computador arbitrariamente poderosa em torno de mentir. Qualquer implementação real de Aixi é, por necessidade, uma aproximação, e (hoje) geralmente um bastante bruto. Ainda assim, Aixi nos dá um vislumbre teórico do que uma poderosa inteligência artificial pode parecer, e como ele pode raciocinar.

Video: Evolução da Inteligência Artificial preocupa cientistas pois eles podem ser capazes de atacar

O Espaço de Valores

E se você tenha feito qualquer programação de computadores, você sabe que os computadores são obnoxiously, pedante, e mecanicamente literal. A máquina não saber ou se importar o que você quer fazer: ele só faz o que tem sido dito. Esta é uma noção importante quando se fala de inteligência da máquina.Os princípios de computador Programação 101 - Variáveis ​​e tipos de dadosOs princípios de computador Programação 101 - Variáveis ​​e tipos de dadosTendo introduzido e falou um pouco sobre Programação Orientada a Objetos antes e onde seu xará vem, eu pensei que é hora de passar os princípios absolutos de programação de uma maneira específica não-linguagem. Este...consulte Mais informação

Com isto em mente, imagine que você inventou uma poderosa inteligência artificial - que você venha com algoritmos inteligentes para gerar hipóteses que correspondem aos seus dados, e para gerar bons planos candidatos. Seu AI pode resolver os problemas gerais, e pode fazê-lo de forma eficiente em hardware moderno.

Agora é hora de escolher uma função de utilidade, o que vai determinar que os valores de IA. O que você deve perguntar isso a valorizar? Lembre-se, a máquina será obnoxiously, pedantically literal sobre qualquer função você perguntar isso para maximizar, e nunca vai parar - não há nenhum fantasma na máquina que nunca vai `despertar` e decidir alterar a sua função utilidade, independentemente de quantas melhorias de eficiência que faz a seu próprio raciocínio.

Eliezer Yudkowsky colocar desta forma:

Como em toda programação de computadores, o desafio fundamental e dificuldade essencial da AGI é que, se escrever o código errado, a AI não vai olhar automaticamente ao longo do nosso código, marcar os erros, descobrir o que realmente quis dizer, e fazer isso em vez de. Não-programadores, por vezes, imaginar um AGI, ou programas de computador em geral, como sendo análogo a um servo que segue as ordens sem questionar. Mas não é que a AI é absolutamente obediente ao seu code-sim, a AI simplesmente é o código.

Se você está tentando operar uma fábrica, e você informar a máquina para valorizar fazer clipes, e, em seguida, dar-lhe o controle do monte de robôs fábrica, você pode voltar no dia seguinte para descobrir que ele não tem mais qualquer outra forma de matéria-prima, matou todos os seus funcionários, e fez clipes para fora de seus restos. Se, em uma tentativa de corrigir seu erro, você reprogramar a máquina simplesmente fazer todos felizes, você pode retornar no dia seguinte para encontrá-lo colocando fios nos cérebros das pessoas.

clipes de papel

O ponto aqui é que os seres humanos têm um monte de valores complicados que assumimos são compartilhados implicitamente com outras mentes. Nós valorizamos o dinheiro, mas nós valorizamos a vida humana mais. Queremos ser felizes, mas não necessariamente quer colocar fios em nossos cérebros para fazê-lo. Nós não sentimos a necessidade de esclarecer essas coisas quando estamos dando instruções a outros seres humanos. Você não pode fazer esses tipos de suposições, no entanto, quando você está projetando a função de utilidade de uma máquina. Os melhores soluções sob a matemática sem alma de uma função de utilidade simples são muitas vezes soluções que os seres humanos Nix por ser moralmente horrível.

Permitindo que uma máquina inteligente para maximizar a função utilidade ingênua quase sempre será catastrófico. Como filósofo de Oxford Nick Bostom coloca,

Não podemos alegremente assumir que uma superinteligência será necessariamente compartilhar qualquer um dos valores finais stereotypically associados com sabedoria e desenvolvimento intelectual em humanos-científico curiosidade, preocupação benevolente para outros, a iluminação espiritual e contemplação, a renúncia à cobiça material, o gosto pela cultura refinada ou para os prazeres simples da vida, humildade e abnegação, e assim por diante.

Video: Empresa quer criar inteligencia artificial que sente RAIVA, FUDEU

Para piorar a situação, é muito, muito difícil de especificar a lista completa e detalhada de tudo o que as pessoas valorizam. Há uma grande quantidade de facetas para a questão, e esquecendo mesmo um único deles é potencialmente catastrófico. Mesmo entre aqueles que estamos cientes, há sutilezas e complexidades que tornam difícil para anotá-las como sistemas limpos de equações que podemos dar a uma máquina como uma função de utilidade.



Algumas pessoas, ao ler isso, concluem que a construção de AIs com funções de utilidade é uma ideia terrível, e nós devemos apenas projetá-los de forma diferente. Aqui, há também uma má notícia - você pode provar, formalmente, que qualquer agente que não tem algo equivalente a uma função de utilidade não pode ter preferências coerentes sobre o futuro.

Recursiva Self-Improvement

Uma solução para o dilema acima é não dar agentes de IA a oportunidade de ferir as pessoas: dar-lhes apenas os recursos de que necessitam para resolver o problema da maneira que você pretende que ele seja resolvido, supervisioná-los de perto, e mantê-los longe de oportunidades para fazer um grande dano. Infelizmente, a nossa capacidade de controlar máquinas inteligentes é altamente suspeito.

Mesmo que eles não são muito mais espertos do que nós, existe a possibilidade de que a máquina “bootstrap” - recolher melhor hardware ou fazer melhorias para o seu próprio código que faz com que seja ainda mais inteligente. Isso poderia permitir que uma máquina de ultrapassar inteligência humana por várias ordens de magnitude, outsmarting seres humanos no mesmo sentido que os seres humanos mais esperto gatos. Este cenário foi proposto pela primeira vez por um homem chamado I. J. Good, que trabalhou no projeto cripta-análise Enigma com Alan Turing durante a Segunda Guerra Mundial. Ele a chamou de uma “explosão de inteligência, e descreveu o assunto como este:

Deixe um uma máquina ultra-inteligente ser definido como uma máquina que pode superam todas as atividades intelectuais de qualquer homem, por mais inteligente. Desde que o projeto de máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente poderia projetar ainda melhor machines- lá, então, sem dúvida, ser uma “explosão de inteligência”, e a inteligência do homem seria deixado para trás. Assim, a primeira máquina ultra-inteligente é a última invenção que o homem precisa sempre fazer, desde que a máquina é dócil o suficiente.

Não é garantido que uma explosão de inteligência é possível em nosso universo, mas parece provável. Conforme o tempo passa, os computadores ficam mais rápidos e conhecimentos básicos sobre construção inteligência para cima. Isto significa que a exigência de recursos para fazer esse último salto para um general, boostrapping inteligência cair mais e mais. Em algum momento, vamos nos encontrar em um mundo em que milhões de pessoas podem conduzir a uma Best Buy e pegar o hardware e literatura técnica que eles precisam para construir uma inteligência artificial auto-melhoria, que nós já estabelecemos pode ser muito perigoso. Imagine um mundo em que você poderia fazer bombas atômicas fora de paus e pedras. Esse é o tipo de futuro que estamos discutindo.

E, se uma máquina faz esse salto, ele poderia muito rapidamente superar a espécie humana em termos de produtividade intelectual, resolvendo problemas que um bilhão de seres humanos não pode resolver, da mesma forma que os humanos podem resolver problemas que um bilhão de gatos pode` t.

Poderia desenvolver robôs poderosos (ou bio ou nanotecnologia) e relativamente rápido ganha a habilidade de remodelar o mundo como ele agrada, e não haveria muito pouco que pudesse fazer sobre isso. Tal inteligência poderia tirar a Terra eo resto do sistema solar para peças de reposição, sem muita dificuldade, no seu caminho para fazer o que nós dissemos a ele. Parece provável que esse desenvolvimento seria catastrófico para a humanidade. Uma inteligência artificial não precisa ser malicioso para destruir o mundo, apenas catastroficamente indiferente.

Como diz o ditado, “A máquina não amar ou odiar você, mas você são feitas de átomos que podem usar para outras coisas.”

Avaliação de Riscos e Mitigação

Então, se aceitarmos que a concepção de uma poderosa inteligência artificial que maximiza uma função de utilidade simples é ruim, o quanto o problema está realmente em? Há quanto tempo temos antes que se torne possível construir esses tipos de máquinas? É, claro, difícil dizer.

desenvolvedores de inteligência artificial são fazendo progresso. As máquinas que construímos e os problemas que podem resolver têm vindo a crescer de forma constante no escopo. Em 1997, Deep Blue poderia jogar xadrez em um nível maior do que um grande mestre humano. Em 2011, Watson da IBM poderia ler e sintetizar informações suficientes profundamente e rapidamente o suficiente para bater os melhores jogadores humanos em um jogo de perguntas e respostas em aberto cheio de trocadilhos e jogos de palavras - que é um grande progresso em quatorze anos.7 incríveis websites para ver mais na programação de Inteligência Artificial7 incríveis websites para ver mais na programação de Inteligência ArtificialInteligência Artificial não é ainda HAL a partir do 2001: A Space Odyssey ... mas estamos chegando muito perto. Com certeza, um dia poderia ser tão semelhante aos potboilers sci-fi sendo churned por Hollywood ....consulte Mais informação

Agora, o Google está a investir fortemente na investigação de aprendizagem profunda, uma técnica que permite a construção de redes neurais poderosos através da construção de cadeias de redes neurais simples. Esse investimento está permitindo-lhe fazer progressos sérios na fala e reconhecimento de imagem. Sua mais recente aquisição na área é uma partida aprendizagem profunda chamada DeepMind, para o qual eles pagaram cerca de US $ 400 milhões. Como parte dos termos do acordo, o Google concordou em criar um conselho de ética para garantir que sua tecnologia AI é desenvolvido de forma segura.

rede neural

Ao mesmo tempo, está a desenvolver IBM Watson 2.0 e 3.0, os sistemas que são capazes de processamento de imagens e de vídeo e argumentando para defender conclusões. Eles deram uma demonstração simples, precoce da capacidade do Watson para sintetizar os argumentos a favor e contra um tópico no vídeo de demonstração abaixo. Os resultados são imperfeitos, mas um passo impressionante independentemente.

Nenhuma dessas tecnologias são eles próprios perigosa agora: inteligência artificial como um campo ainda está lutando para combinar habilidades dominadas por crianças pequenas. programação de computadores e design AI é muito difícil, de alto nível de habilidade cognitiva, e provavelmente será a última tarefa humana que as máquinas se tornar proficientes em. Antes de chegar a esse ponto, também teremos máquinas onipresentes que podem conduzir, praticar medicina e direito, e provavelmente outras coisas também, com profundas consequências económicas.Aqui é como nós vamos chegar a um mundo cheio de sem condutor CarrosAqui é como nós vamos chegar a um mundo cheio de sem condutor CarrosDirigir é uma tarefa tediosa, perigoso e exigente. Poderia um dia ser automatizada pela tecnologia carro sem motorista do Google?consulte Mais informação

O tempo que vai nos levar para chegar ao ponto de inflexão da auto-aperfeiçoamento só depende de quão rápido nós temos boas idéias. Previsão avanços tecnológicos desses tipos são notoriamente difíceis. Não parece razoável que sejamos capazes de construir AI forte dentro de vinte anos, mas também não parece razoável que pode demorar oitenta anos. De qualquer maneira, isso vai acontecer, eventualmente, e não há razão para acreditar que quando isso acontecer, ele vai ser extremamente perigoso.

Então, se aceitarmos que isso vai ser um problema, o que podemos fazer sobre isso? A resposta é certificar-se que as primeiras máquinas inteligentes são seguros, para que eles possam inicializar-se a um nível significativo de inteligência, e, em seguida, proteger-nos de máquinas inseguras feitas mais tarde. Este ‘safeness` é definido através da partilha de valores humanos, e estar disposto a proteger e ajudar a humanidade.

Porque nós não podemos realmente sentar e valores humanos do programa na máquina, provavelmente será necessário projetar uma função de utilidade que requer a máquina para observar os seres humanos, deduzir os nossos valores, e depois tentar maximizar-los. A fim de tornar este processo de seguro de desenvolvimento, também pode ser útil para desenvolver inteligências artificiais que são projetados especificamente não ter preferências sobre suas funções de utilidade, permitindo-nos para corrigi-los ou desligá-los sem resistência se eles começarem a se extraviar durante o desenvolvimento.

Video: Computadores têm alma? | Nerdologia 175

stainedneurons

Muitos dos problemas que temos de resolver a fim de construir uma inteligência segura da máquina são difíceis matematicamente, mas não há razão para acreditar que eles podem ser resolvidos. Um número de organizações diferentes estão trabalhando sobre o assunto, incluindo o futuro do Humanity Institute na Universidade de Oxford, e do Instituto de Pesquisa de Inteligência de Máquina (que fundos de Peter Thiel).

MIRI está interessado especificamente no desenvolvimento da matemática necessária para construir AI amigável. Se se verificar que bootstrapping inteligência artificial é possível, então desenvolver esse tipo de tecnologia ‘AI amigável` em primeiro lugar, se bem sucedida, pode acabar sendo a coisa mais importante que os seres humanos já feito.

Você acha que a inteligência artificial é perigoso? Você está preocupado com o que o futuro da AI pode trazer? Compartilhe seus pensamentos na seção de comentários abaixo!


Artigos relacionados