💊 AGI Até 2027?

Olá, exploradores da IA

Exploramos as tensões e revoluções no campo da inteligência artificial, desde os denunciantes de IA exigindo o 'Direito de Avisar' até previsões audaciosas sobre a chegada da AGI em 2027

No nosso D-IArio de hoje

No resumo de IA de hoje:

  • Pesquisadores de IA Exigem o ‘Direito de Avisar’! 🚨

  • Musk Encomenda Chips de IA da Tesla para X 📦

  • AGI Chegando até 2027 📶

    Tempo de leitura: 6 minutos.

Pesquisadores de IA Exigem o ‘Direito de Avisar’! 🚨

💊 Uma breve pílula: 

Pesquisadores de IA clamam por mais proteção para quem alerta sobre perigos potenciais, com uma carta aberta endossada por grandes nomes da área.

🌌 Explorando os horizontes: 

Um grupo de bravos funcionários e ex-funcionários dos principais laboratórios de IA, incluindo OpenAI, Anthropic e DeepMind, resolveu soltar o verbo!

🗣️ Eles publicaram uma carta aberta exigindo mais proteções para denunciantes que se atrevem a levantar a voz sobre os perigos da inteligência artificial.

A petição ‘Right to Warn AI’, endossada por ninguém menos que Yoshua Bengio, Geoffrey Hinton e Stuart Russell, propõe algumas mudanças poderosas:

  • Eliminar cláusulas de não-depreciação sobre riscos de IA.

  • Estabelecer canais anônimos para levantar preocupações.

  • Expandir proteções e medidas anti-retaliação para denunciantes.

Vários pesquisadores compartilharam suas experiências, incluindo Daniel Kokotajlo, que disse ter deixado a OpenAI após perder a esperança na responsabilidade da empresa. 😔

🔍 Explorando os impactos:

Essa carta pode ser o ponto de virada na discussão sobre segurança em IA, revelando uma divisão considerável na indústria.

A grande questão é: será que os líderes de IA vão prestar atenção? 🤔 Afinal, ninguém quer ser substituído por um robô, especialmente se ele estiver tramando algo nefasto. 💀

Musk Encomenda Chips de IA da Tesla para X 📦

💊 Uma breve pílula: 

Amazon revela seu Projeto P.I., um sistema de IA que escaneia produtos em seus centros de distribuição para detectar itens danificados ou incorretos antes do envio.

🌌 Explorando os horizontes: 

A Amazon acaba de lançar o Projeto P.I., uma solução inovadora que utiliza IA e visão computacional para identificar defeitos em produtos, como itens danificados ou com cores/tamanhos errados, enquanto passam por túneis de imagem.

Este sistema já está em operação nos centros de distribuição da Amazon na América do Norte, com planos de expansão global ao longo do ano.

Além disso, a Amazon usa um modelo de linguagem multimodal (LLM) para investigar mais a fundo os problemas, combinando feedback dos clientes com imagens do Projeto P.I. para identificar a causa raiz das falhas.

🔍 Explorando os impactos: 

Este projeto pode aumentar a eficiência e reduzir o desperdício, mas a automação crescente sugere um futuro onde os humanos podem ser totalmente removidos do processo de distribuição. Robôs dominando o mundo? Talvez não seja tão longe da realidade.

⛈️ Previsão meteorológica com IA da Microsoft

💊 Uma breve pílula: 

Leopold Aschenbrenner, ex-pesquisador da OpenAI, prevê que a AGI chegará até 2027, com um salto tecnológico comparável ao avanço de GPT-2 para GPT-4.

🌌 Explorando os horizontes: 

Leopold Aschenbrenner, em sua nova série de ensaios, detalha sua visão sobre a AGI (Inteligência Artificial Geral), afirmando que o progresso da IA será um dos eventos mais intensos e voláteis da história humana. 🧠💥

Aschenbrenner argumenta que "ninguém está levando em conta" o que está por vir na IA, prevendo outro salto de nível GPT-2 para GPT-4 até 2027, o que nos levaria à AGI.

Segundo ele, centenas de milhões de AGIs acelerariam rapidamente o progresso, comprimindo décadas de avanços em um único ano. Ele também discutiu as vantagens econômicas e militares que virão com a AGI, chamando isso de uma questão de segurança nacional que precisa de seu próprio "Projeto Manhattan". 🇺🇸

Aschenbrenner reiterou essas opiniões no Dwarkesh Podcast, também revelando que foi demitido da OpenAI após levantar preocupações sobre a segurança da IA. 🚫

🔍 Explorando os impactos: 

Como um insider da OpenAI, a análise de Aschenbrenner tem peso — e suas projeções pintam um quadro impressionante de como a AGI transformará o mundo.

E o drama não para por aí, considerando a batalha da OpenAI na mídia com ex-pesquisadores e o conselho sobre preocupações de segurança. 🎭.

NOVAS FERRAMENTAS & CURIOSIDADES

  • 📺 Showrunner - Gera programas de TV e episódios com IA

  • 🎮 Rosebud AI Gammaker - Crie, compartilhe e jogue jogos impulsionados por IA

  • 🍻 Crewting - Transforme trabalhadores remotos isolados em equipes conectadas com IA de correspondência