- Cooper's Newsletter
- Posts
- 💊 IA que faz 500M anos de progresso
💊 IA que faz 500M anos de progresso
Olá, exploradores da IA
hackers são heróis, IAs simulam milhões de anos de evolução em segundos, e a OpenAI adia, mas não decepciona. De segurança a biotecnologia, o mundo está se reinventando mais rápido do que nunca!
No nosso D-IArio
No resumo de IA de hoje:
🤖 Vozes do Além: O drama da OpenAI
🧬 IA que faz 500M anos de progresso
🔓 Hackers são Heróis
Tempo de leitura: 5 minutos.
🤖 Vozes do Além: O drama da OpenAI 🎤
💊 Uma breve pílula:
OpenAI adia o tão esperado modo de voz do ChatGPT. Cautela ou drama? Descubra mais sobre essa novela tecnológica.
🌌 Explorando os horizontes:
Em um plot digno de novela, a OpenAI decidiu adiar o lançamento do modo de voz do ChatGPT, inicialmente prometido para alguns dias após a atualização de primavera. Agora, os usuários pagantes terão que esperar até o outono.
A justificativa? Mais testes de segurança e refinamentos. Um grupo de teste Alpha, previsto para junho, também foi postergado para julho. A confusão começou quando o modelo "Sky" foi comparado à Scarlett Johansson, mas a OpenAI negou qualquer semelhança intencional.
Enquanto isso, os usuários de Mac podem celebrar o novo aplicativo de desktop do ChatGPT, que promete maior integração com arquivos e compartilhamento de tela.
Acompanhe essa saga e veja como a OpenAI tenta evitar cair na armadilha do "prometer e não cumprir", especialmente com a concorrência aumentando (estamos de olho, Anthropic).
🔍 Explorando os impactos:
Embora a espera seja chata, é melhor do que lançar um produto cheio de falhas. Mas, fica a pergunta: até quando a paciência dos usuários vai aguentar? Com sorte, o modo de voz será tão bom que até Siri vai querer um upgrade.
🧬 IA que faz 500M anos de progresso
💊 Uma breve pílula:
Biotech EvolutionaryScale lança o ESM3, uma IA que simula milhões de anos de evolução em dias.
Revolução ou ficção científica? Veja o que isso significa para o futuro da biologia.
🌌 Explorando os horizontes:
A startup EvolutionaryScale apresentou a ESM3, um modelo de IA de ponta capaz de simular a evolução natural de proteínas em tempo recorde.
O ESM3 pode analisar sequências, estruturas e funções de proteínas simultaneamente, gerando novos designs em uma velocidade impressionante. Em testes, a ESM3 criou uma nova proteína fluorescente 58% diferente das conhecidas — um salto que normalmente levaria 500 milhões de anos.
Com 98 bilhões de parâmetros, a ESM3 foi treinada em aproximadamente 1,8 trilhões de tokens de dados biológicos. Fundada por ex-pesquisadores da META, a EvolutionaryScale já garantiu $142 milhões em financiamento inicial de gigantes como Amazon e Nvidia.
Este avanço promete uma revolução em áreas como saúde e ciência ambiental, permitindo "programar" a biologia com a facilidade de escrever código de computador.
🔍 Explorando os impactos:
O ESM3 pode transformar como entendemos e manipulamos a biologia, abrindo novas fronteiras no conhecimento científico. Finalmente, um futuro onde a evolução está ao alcance das mãos - literalmente.
🔓 Hackers são Heróis
💊 Uma breve pílula: Empresas de IA estão contratando hackers para descobrir falhas de segurança em seus modelos.
Heróis ou vilões? Veja como esses hackers ajudam a proteger nossos dados.
🌌 Explorando os horizontes:
É o pior pesadelo de uma startup de IA: um hacker invade seu modelo, gerando conteúdo perigoso ou extraindo dados sensíveis. Mas, ultimamente, as empresas de tecnologia têm pago bem para que hackers façam exatamente isso. Esses programadores usam técnicas incomuns para quebrar as barreiras dos modelos de linguagem — tudo para ajudar as empresas a encontrar vulnerabilidades.
LLMs (Modelos de Linguagem de Grande Escala) foram ajustados para bloquear conteúdos sensíveis, mas diferentes técnicas podem contornar isso, algumas descobertas através de simples tentativa e erro. Uma técnica envolve alimentar um LLM com uma longa sequência de perguntas e respostas para enganá-lo a imitar esse comportamento. Essas falhas também se aplicam a geradores de imagens como o Midjourney e DALL-E, que podem criar materiais explícitos ou violentos.
Qual a solução?
Uma startup chamada Haize Labs faz parceria com empresas como a Anthropic para intencionalmente "jailbreak" modelos, expondo suas fraquezas. Ela está desenvolvendo algoritmos que encontram falhas de segurança, ajudando empresas de IA a corrigirem antes que sejam exploradas. Um grupo de segurança israelense, DeepKeep, ajudou a Meta a reformular seu firewall após descobrir uma maneira de acessar informações pessoais dos usuários.
Nem todos jogam pelas regras: Alguns vigilantes tomaram medidas por conta própria, reclamando que as empresas de IA não agem rápido o suficiente. Um hacker conhecido como Pliny the Prompter lançou uma versão "Godmode" do GPT-4o, sem os recursos de segurança usuais do Chat-GPT. A versão foi retirada do ar em poucas horas, mas o incidente mostra que as empresas estão lutando para acompanhar a taxa de ataques.
🔍 Explorando os impactos:
Os hackers estão ajudando a tornar a IA mais segura, mas a corrida contra o tempo é intensa. E, no fim, quem vence: os heróis ou os vilões?