A inteligência artificial é muito mais perigosa do que as armas nucleares, diz Elon Musk

0 2.692

Ele estava de bom humor. Entrou dançando. Riu. Fez piada e saiu cantando. E com chapéu de caubói. Elon Musk fez outra aparição no SXSW neste domingo (11/03). Mais uma vez em grande estilo. Depois de ter uma breve participação num painel com o elenco de Westworld no sábado, o empresário, fundador da Tesla e da SpaceX, lotou uma casa de shows de Austin. Centenas de pessoas foram ao Moody Theater ouvir Musk responder a perguntas enviadas pelo público. Uma das referências mundiais em inovação, o empresário falou sobre as ameaças da inteligência artificial, a futura chegada da humanidade a Marte (será?) e mobilidade. Abaixo, você pode conferir os melhores momentos do encontro divididos por temas.

Chegada dos humanos a Marte

No curto prazo, o que precisamos para ir a Marte é construir a nave espacial. Estamos progredindo nesse sentido. Uma vez que ela esteja pronta e seja possível levar pessoas para lá e para a Lua, serão necessários recursos financeiros, porque será preciso construir tudo o que permite que a civilização exista. É o caso de estações de energia e domos de vidro para plantar comida, por exemplo. Sem isso não sobreviveremos. E será mais difícil fazer isso num local como a Lua ou Marte. Às vezes, brincam que a Lua poderá se tornar uma casa para descanso de ricaços, mas não será assim de maneira nenhuma. Ir à Lua ou a Marte será difícil, perigoso e você terá uma boa chance de acabar morto. Mas haverá uma explosão de empreendedorismo, porque Marte precisará de tudo. Por sinal, acho que o planeta deveria ter ótimos bares. A SpaceX deve começar a fazer voos curtos, de subida e descida, com a aeronave que estamos construindo para ir ao planeta no ano que vem.

SpaceX

Eu diria que a SpaceX e a Tesla tinham 10% de chances de serem bem-sucedidas. Fui em frente e criei a SpaceX porque via que não estávamos avançando em mandar as pessoas a Marte ou em montar uma base na Lua. Onde estavam, afinal, os hotéis espaciais que foram prometidos no filme 2001? Quando tomei a decisão, fui atrás do preço dos foguetes e descobri que eram caríssimos. Eles, na verdade, tornaram-se mais caros e não mais baratos ao longo dos anos. Cheguei à conclusão de que deveria haver alguma maneira de resolver esse problema. Um dos desafios era fazer os foguetes serem reutilizáveis. Embarcamos nessa jornada para criar a SpaceX em 2002. Naquela época, não deixei meus amigos investirem porque não queria que eles perdessem dinheiro. Preferia perder o meu. Eu tinha o plano de investir metade dos US$ 180 milhões do PayPal na SpaceX, na Tesla e na Solar City. Pensei que fosse o suficiente. Não foi. E a SpaceX de fato quase faliu. Tínhamos recursos para três voos e os três falharam. Precisei colocar mais dinheiro. Se o quarto lançamento não tivesse dado certo, teria sido o fim da SpaceX.

The Boring Company

Passo quase todo o meu tempo me dividindo entre a Tesla e a SpaceX. A Boring Company começou mais como uma brincadeira, porque era um nome engraçado para uma empresa. Por quatro ou cinco anos, sempre que eu fazia uma apresentação e me perguntavam sobre oportunidades de negócios eu falava em túneis – “por favor, alguém construa túneis”, eu dizia. Depois de cinco anos implorando para as pessoas construírem túneis e nada, pensei: ok, eu vou construir os túneis [a Boring Company está desenvolvendo o Hyperloop, um sistema de transporte de alta velocidade operado em túneis]. As pessoas costumam gostar da ideia de ter um carro voador, mas pense se realmente seria legal se todos ao seu lado também tivessem um. Não parece tão bom, certo? Com a Boring Company, eu gasto apenas uns 2% do meu tempo, embora ela seja o assunto de 20% dos meus tweets. Eu me divirto com a empresa, mas gasto pouco tempo com ela.

Inteligência artificial

Os especialistas em inteligência artificial acham que sabem mais do que sabem e também que são mais espertos do que são. Estamos perto de um ponto de virada em IA e isso me assusta muito. Os avanços estão ocorrendo rapidamente e o potencial de evolução é exponencial. Ninguém esperava uma rapidez tão grande. A curva de aprendizado está melhorando dramaticamente e temos que nos assegurar que o avanço da inteligência digital seja simbiótico com a humanidade. Acho que essa é a maior e mais importante crise existencial pela qual passamos. Eu não sou normalmente um defensor de regulamentação, mas esse é um caso em que você tem um risco grande para o público. Deveria haver um órgão responsável por garantir que todos estão desenvolvendo IA de maneira segura. Essa é a coisa mais importante que poderíamos fazer. Acho que o perigo da IA é muito maior do que o das armas nucleares. De longe. E ninguém jamais iria achar normal permitir que as pessoas criassem armas nucleares se quisessem. Seria insano.

Fonte Época Negócios
Notícias Relacionadas
Deixe um comentário

Seu endereço de email não será publicado.