top of page

"AI Vai Nos Destruir!" É o Que Querem Te Fazer Pensar

  • Foto do escritor: Milton Omena
    Milton Omena
  • 4 de jun. de 2024
  • 3 min de leitura
Sim, o planeta foi destruído. Mas por um belo momento, nós geramos muito valor para os investidores.
"Sim, o planeta foi destruído. Mas por um belo momento, nós geramos muito valor para os investidores." - The New Yorker (https://www.newyorker.com/cartoon/a16995)

Recentemente eu estava ouvindo entrevista no podcast do Lex Friedman com Roman Yampolskiy, os dois falam sobre vários cenários e futuros possíveis para a Inteligência Artificial Geral (AGI). Lex, sempre o otimista, comparou a ansiedade atual sobre a AGI com os medos tecnológicos do passado, argumentando por um futuro potencialmente melhor.


Roman, no entanto, acredita que a inteligência artificial será o fim da humanidade, seja através de uma ameaça direta ou pelo desespero existencial.


"O único jeito de vencer esse jogo é não jogar"

Concordo com Roman até certo ponto, mas eu tenho que dizer: não acredito que estamos realmente jogando este jogo. Deixe-me explicar.


Primeiro, vamos definir nossos termos. Inteligência artificial é uma determinação ampla, e as classificações muitas vezes variam. Aqui está como eu vou tratá-las:


  • Weak AI (IA Fraca): Modelos estreitos que realizam tarefas específicas (por exemplo, Midjourney, GPT-4, Sora). Esses modelos são competentes, mas limitados pelo contexto e incapazes de aprender em tempo real. Eles são essencialmente árvores de decisão complexas glorificadas.

  • Strong AI (IA Forte): AIs multimodais capazes de realizar tarefas e aprender em tempo real. Ainda não temos um exemplo perfeito, mas imagine o GPT-4o com aprendizado e atualizações em tempo real. Ainda é orientado por parâmetros, mas pode reinterpretar essas diretrizes dinamicamente.

  • Soft AI (IA Suave): AIs que realizam tarefas humanas com base na programação inicial ou em prompts.

  • Hard AI (IA Dura): AIs que pensam como humanos, capazes de raciocinar, se auto-contemplar e ter consciência real.


Eu visualizo esses tipos de IA em um gráfico cartesiano com duas dimensões:


  • Eixo Vertical: Adaptabilidade (IA Fraca a IA Forte)

  • Eixo Horizontal: Consciência (IA Suave a IA Dura)


O ponto 0 em cada eixo representa o equivalente humano.


Matriz de Perigo de AI

Vamos povoar este gráfico com alguns personagens de cultura popular pra que vocês tenham um ponto de comparação:


  • Butter-bot de Rick and Morty: Consciente, mas só realiza uma tarefa simples - passar manteiga. Ele entende e navega pelo ambiente, mas sofre por só poder realizar uma função repetitiva e irrelevante: "ele passa a manteiga".

  • HAL 9000 de 2001: Uma Odisseia no Espaço: Altamente adaptável e capaz, pode controlar os sistemas de uma nave e processar informações rapidamente. No entanto, está limitado por suas diretrizes (mesmo que as leve ao extremo) e contido dentro do sistema da nave.

  • Replicantes de Blade Runner: Tão capazes quanto humanos, com adaptabilidade similar devido a seus corpos humanoides. Eles são quase autoconscientes, mas não possuem plena consciência (presumindo que não apresentam mau funcionamento).


O Futuro da AI e Nossos Medos


Por que temos tanto medo da AGI? A resposta curta é que o medo vende. É um motivador poderoso, especialmente em vendas. Se as empresas superestimam as capacidades dos produtos, tornando-os mais assustadores, pessoas compram achando que podem fazer quase tudo, quando a realidade é muito mais mundana.


Matriz de Perigo de AI

Ninguém sabe quando a AGI será alcançada, mas é vantajoso parecer que está logo ali. E mais vantajoso ainda se você consegue aparentar ser a única pessoa segurando esse avanço assustador.


Usando nosso gráfico, vamos definir nossos limites e o progresso tecnológico atual. Aqui está minha visão das definições de AGI:


  • Faux AGI (Falsa AGI): A AGI discutida por especialistas do Vale do Silício é menos autoconsciente e evolui mais em conectividade e contexto, em vez de livre-arbítrio e consciência.

  • True AGI (Verdadeira AGI): Isso envolve máquinas que não apenas aprendem e executam como humanos, mas também querem e raciocinam como eles. É aqui que reside o perigo e onde o retorno sobre o investimento começa a diminuir.


Talvez não estejamos construindo em direção à verdadeira AGI, mas precisamos realmente dela? Argumento que realizar tarefas de maneira determinística com base nos parâmetros iniciais é suficiente para as necessidades dos consumidores. Introduzir livre-arbítrio e raciocínio aumenta a complexidade e os custos sem valor agregado significativo.


Não há incentivo para construir uma verdadeira AGI. Para aqueles que realmente querem, a barreira é tão alta que não é uma preocupação iminente. Em junho de 2024, as previsões sugerem que a Falsa AGI pode chegar até 2026, segundo alguns especialistas em tecnologia.


Talvez Eu Pague Minha Língua


Posso me arrepender dessa previsão se acabarmos sob o controle de robôs em alguns anos, mas não acredito que atualmente enfrentamos ameaças existenciais da AGI. Um reset no mercado com a IA potencialmente eliminando empregos, por outro lado—boa sorte com isso.

Comments


  • LinkedIn
  • Medium
  • Behance
bottom of page