Início Noticias Temos a obrigação moral da IA ​​por causa da evolução? | Opinião

Temos a obrigação moral da IA ​​por causa da evolução? | Opinião

12
0

Em São Francisco, no mês passado, o empresário da IA, Dr. Ben Gartzel, me convidou para ser um debate público no futuro da inteligência de máquinas em seu evento, Dez acusações de AGIO Gartzel é mais conhecido pela popularidade AgiUma palavra refere-se à inteligência geral artificial como igual à inteligência em nível humano.

Eu promovo AGI há muito tempo em ensaios e Entrevista Como possível lançamento da raça humana e seus problemas. Agora que o gerador está aqui como Ai, Chatzept e está começando a incentivar a sociedade e começar a aceitar empregos, não tenho tanta certeza de que estou certo. A IA se desenvolveu muito rápida e entusiasmada para continuar seu apoio a mim.

No debate, fiz uma pergunta a Gartzel, todos os entusiastas da IA ​​devem responder: Você acha que, por causa da evolução humana, existe uma obrigação moral de trazer o superintendente da IA ​​para o mundo?

O Robô Humanóide construído pelo Laboratório de Inteligência Artificial da Universidade de Zurique é acompanhado por sua reflexão humana no domingo, 21 de junho de 2013.

Figura Etampophoto/Getty

O Goartzel venceu, porque a pergunta é desafiadora. Ele acredita que a IA é uma criação e Extensão Nosso próprio – e, portanto, um aprimoramento de nossa própria evolução, bem como parte da evolução. Posso admitir que o assunto é complicado pela minha graduação recentemente Grau Da Universidade de Oxford à Ética, onde filósofos como Nick Bostrome eram meus professores.

Por um lado, o visionário do bilionário, como Sam Altman e Elon Kasturi, desejam ver até que ponto a máquina pode desenvolver o intelecto da máquina. Ambos Ultman E Vime Provavelmente Deus indica que intelectuais como Shobar. No geral, por que você pararia na AGI quando seria capaz de criar uma superinteminação que poderia ajudar a resolver todos os problemas do mundo?

Por outro lado, se as superjeções recém -feitas não gostarem de seres humanos – o que acontecerá com nós realmente danificamos este planeta? Ou pode ser porque as pessoas podem um dia tentar testar a física -o que pode danificar a Terra e o universo? Nesse caso, ele tentará nos impedir ou até seguir o ser humano uma AI superintendente ExtinçãoO

Durante nossa controvérsia, disse a Gertzel que minha primeira prioridade era proteger as pessoas e garantir sua sobrevivência e bem -estar. Somente depois disso podemos garantir que as pessoas tenham a obrigação moral de criar IA como a próxima força líder em nosso planeta.

Estou ansioso, como a personalidade mítica grega, Icarus, que chegou muito perto do sol, que nossa auto-grade cegou as pessoas por que queríamos criar eu em primeiro lugar. Humanidade Meta Uma ferramenta foi criada para nos ajudar a melhorar com a IA, não um equipamento que se tornaria mais forte que nós.

No entanto, alguns especialistas agora esperam que a IA exceda a inteligência humana 5-10 anosO Goartzel acha que isso pode acontecer nos próximos 24-36 meses, ele disse NewsweekO

As pessoas costumam pensar em fazer da Agis algo semelhante às armas nucleares; A humanidade encontrará uma maneira de danificar diretamente o mundo, pois aconteceu com as notícias do ano 45. No entanto, essa similaridade está perdida. AGI é muito diferente das armas nucleares. Primeiro, é impossível dizer que, se formos capazes de controlar uma inteligência de IA, excedemos nosso próprio intelecto; Alguns especialistas pensam que é ImpossívelO

Segundo, convidar intelectuais inteligentes do que nós em nosso mundo é semelhante ao nosso convite a estrangeiros mais inteligentes da Terra do que nós. Quase não são circunstâncias que queremos fazê -lo, porque é uma prioridade ter espécies dominantes no mundo dos caçadores. Geral Cadeia alimentarO

Ninguém sabe se a IA superintendente finalmente será gentil e benéfica para os seres humanos. Mas muitas pessoas, inclusive elas mesmas, não querem encontrá -lo crescente – o que discorda de nossos inventores de IA. Essa falta de aviso sobre a criação de AGIs para os engenheiros de CEO e IA é assustadora, tornou -se pior que algumas pessoas acreditam que temos a obrigação moral da evolução de criar essa superjeção.

Alguns especialistas dizem que isso é mais limpo, está dizendo que, se não fizermos isso intencionalmente, será quando outros o fizerem no futuro Punição Quem não ajudou a trazê -lo para a existência.

Como transhumanista e longevidade AdvogadoUm dos principais objetivos da minha vida superou as mortes biológicas com a ciência. Embora ainda estejamos a décadas, é bastante louvável criar uma superinteminação de IA antes de 2030. Portanto, mesmo que as pessoas possam superar as mortes biológicas, se não pudermos superar nenhuma superintegração prejudicial, isso não fará nenhuma diferença.

Entendo a tentação de usar a tecnologia para criar algo melhor e mais inteligente que nós. No entanto, ao fazer isso, devemos ter certeza de que não estamos ajudando a prejudicar a humanidade ou a trazer uma destruição. Sinto fortemente que interromper a jornada em direção à invenção de um superintendente certamente se tornará a prioridade mais importante da raça humana e de seus governos.

Joltan escreveu e falou sobre o transhumanismo de Istavan, a inteligência artificial e o futuro. Ele é o governador da Califórnia da Califórnia como democrata nas eleições de 2026.

As opiniões publicadas neste artigo são do autor.

O link da fonte