domingo, 2 de março de 2025

Consciência de IA é improvável, diz cofundador da Polygon Resumo da IA

 De acordo com o Cointelegraph, Sandeep Nailwal, cofundador da Polygon e da empresa de IA de código aberto Sentient, expressou ceticismo sobre o potencial da inteligência artificial (IA) para desenvolver consciência. Em uma entrevista recente, Nailwal declarou que a IA não tem a intenção inerente aos seres humanos e outras entidades biológicas, tornando improvável que a IA atinja um nível significativo de consciência. Ele descartou a noção de um cenário apocalíptico em que a IA se torna autoconsciente e domina a humanidade.

Nailwal criticou a ideia de que a consciência poderia emergir aleatoriamente de interações ou processos químicos complexos. Embora reconhecendo que tais processos podem levar à criação de células complexas, ele argumentou que eles são insuficientes para gerar consciência. Em vez disso, Nailwal expressou preocupações sobre o potencial uso indevido da IA ​​por instituições centralizadas para fins de vigilância, o que poderia ameaçar as liberdades individuais. Ele enfatizou a necessidade de a IA ser transparente e democratizada, defendendo uma IA global controlada por indivíduos para criar um mundo sem fronteiras.

O executivo destacou a importância de cada pessoa ter uma IA personalizada que opere em seu nome, protegendo-a de outras IAs implantadas por entidades poderosas. Essa perspectiva se alinha com a abordagem de modelo aberto da Sentient para IA, contrastando com os métodos opacos de plataformas centralizadas. As opiniões de Nailwal são ecoadas por David Holtzman, um ex-profissional de inteligência militar e diretor de estratégia do protocolo de segurança descentralizado Naoris. Holtzman alertou sobre os riscos significativos de privacidade representados pela IA no curto prazo, sugerindo que a descentralização poderia servir como uma defesa contra ameaças de IA.

Em outubro de 2024, a empresa de IA Anthropic lançou um artigo discutindo cenários potenciais onde a IA poderia sabotar a humanidade e propôs soluções para mitigar esses riscos. O artigo concluiu que, embora a IA não seja uma ameaça imediata, ela pode se tornar perigosa à medida que os modelos avançam. Tanto Nailwal quanto Holtzman argumentam que a descentralização é crucial para evitar que a IA seja usada para vigilância por instituições centralizadas, incluindo o estado. Seus insights ressaltam o debate em andamento sobre o papel futuro da IA ​​e a importância de manter as liberdades individuais em um mundo cada vez mais digital.

Nenhum comentário :

Postar um comentário

Modere nas palavras, comentários com conteúdos ofensivos serão excluídos.