"AI Vai Nos Destruir!" É o Que Querem Te Fazer Pensar
- Milton Omena
- 4 de jun. de 2024
- 3 min de leitura
Recentemente eu estava ouvindo entrevista no podcast do Lex Friedman com Roman Yampolskiy, os dois falam sobre vários cenários e futuros possíveis para a Inteligência Artificial Geral (AGI). Lex, sempre o otimista, comparou a ansiedade atual sobre a AGI com os medos tecnológicos do passado, argumentando por um futuro potencialmente melhor.
Roman, no entanto, acredita que a inteligência artificial será o fim da humanidade, seja através de uma ameaça direta ou pelo desespero existencial.
"O único jeito de vencer esse jogo é não jogar"
Concordo com Roman até certo ponto, mas eu tenho que dizer: não acredito que estamos realmente jogando este jogo. Deixe-me explicar.
Primeiro, vamos definir nossos termos. Inteligência artificial é uma determinação ampla, e as classificações muitas vezes variam. Aqui está como eu vou tratá-las:
Weak AI (IA Fraca): Modelos estreitos que realizam tarefas específicas (por exemplo, Midjourney, GPT-4, Sora). Esses modelos são competentes, mas limitados pelo contexto e incapazes de aprender em tempo real. Eles são essencialmente árvores de decisão complexas glorificadas.
Strong AI (IA Forte): AIs multimodais capazes de realizar tarefas e aprender em tempo real. Ainda não temos um exemplo perfeito, mas imagine o GPT-4o com aprendizado e atualizações em tempo real. Ainda é orientado por parâmetros, mas pode reinterpretar essas diretrizes dinamicamente.
Soft AI (IA Suave): AIs que realizam tarefas humanas com base na programação inicial ou em prompts.
Hard AI (IA Dura): AIs que pensam como humanos, capazes de raciocinar, se auto-contemplar e ter consciência real.
Eu visualizo esses tipos de IA em um gráfico cartesiano com duas dimensões:
Eixo Vertical: Adaptabilidade (IA Fraca a IA Forte)
Eixo Horizontal: Consciência (IA Suave a IA Dura)
O ponto 0 em cada eixo representa o equivalente humano.
Vamos povoar este gráfico com alguns personagens de cultura popular pra que vocês tenham um ponto de comparação:
Butter-bot de Rick and Morty: Consciente, mas só realiza uma tarefa simples - passar manteiga. Ele entende e navega pelo ambiente, mas sofre por só poder realizar uma função repetitiva e irrelevante: "ele passa a manteiga".
HAL 9000 de 2001: Uma Odisseia no Espaço: Altamente adaptável e capaz, pode controlar os sistemas de uma nave e processar informações rapidamente. No entanto, está limitado por suas diretrizes (mesmo que as leve ao extremo) e contido dentro do sistema da nave.
Replicantes de Blade Runner: Tão capazes quanto humanos, com adaptabilidade similar devido a seus corpos humanoides. Eles são quase autoconscientes, mas não possuem plena consciência (presumindo que não apresentam mau funcionamento).
O Futuro da AI e Nossos Medos
Por que temos tanto medo da AGI? A resposta curta é que o medo vende. É um motivador poderoso, especialmente em vendas. Se as empresas superestimam as capacidades dos produtos, tornando-os mais assustadores, pessoas compram achando que podem fazer quase tudo, quando a realidade é muito mais mundana.
Ninguém sabe quando a AGI será alcançada, mas é vantajoso parecer que está logo ali. E mais vantajoso ainda se você consegue aparentar ser a única pessoa segurando esse avanço assustador.
Usando nosso gráfico, vamos definir nossos limites e o progresso tecnológico atual. Aqui está minha visão das definições de AGI:
Faux AGI (Falsa AGI): A AGI discutida por especialistas do Vale do Silício é menos autoconsciente e evolui mais em conectividade e contexto, em vez de livre-arbítrio e consciência.
True AGI (Verdadeira AGI): Isso envolve máquinas que não apenas aprendem e executam como humanos, mas também querem e raciocinam como eles. É aqui que reside o perigo e onde o retorno sobre o investimento começa a diminuir.
Talvez não estejamos construindo em direção à verdadeira AGI, mas precisamos realmente dela? Argumento que realizar tarefas de maneira determinística com base nos parâmetros iniciais é suficiente para as necessidades dos consumidores. Introduzir livre-arbítrio e raciocínio aumenta a complexidade e os custos sem valor agregado significativo.
Não há incentivo para construir uma verdadeira AGI. Para aqueles que realmente querem, a barreira é tão alta que não é uma preocupação iminente. Em junho de 2024, as previsões sugerem que a Falsa AGI pode chegar até 2026, segundo alguns especialistas em tecnologia.
Talvez Eu Pague Minha Língua
Posso me arrepender dessa previsão se acabarmos sob o controle de robôs em alguns anos, mas não acredito que atualmente enfrentamos ameaças existenciais da AGI. Um reset no mercado com a IA potencialmente eliminando empregos, por outro lado—boa sorte com isso.
Comments