💊 Anthropic mapeia conceitos na IA

Descobrindo que até máquinas podem ter crises existenciais

Olá, exploradores da IA

Prepare-se para um futuro brilhante onde IA pode rotular dados como ouro, compreender crises existenciais e prometer não nos destruir, tudo enquanto as grandes empresas juram de dedinho ser bonzinhas.

No nosso D-IArio de hoje

No resumo de IA de hoje:

  • 🚀 Nova era da IA da Microsoft

  • 💰 Scale AI arrecada $1B em financiamento

  • 🗺️ Pesquisa: Mapeando a 'mente' de um LLM

  • 🦙 Modelos de IA menores ganham espaço


    Tempo de leitura: 8 minutos.

🚀 Nova era da IA da Microsoft

💊 Uma breve pílula: 

Microsoft inicia seu evento Build com novos recursos de IA, parcerias, modelo multimodal Phi-3, agentes inteligentes e muito mais.

🌌 Explorando os horizontes: 

A Microsoft começou o evento Build para desenvolvedores com uma enxurrada de anúncios de IA, incluindo o Copilot+ Recall, diversas novas parcerias, um novo modelo multimodal Phi-3, a introdução de capacidades de agentes e muito mais. O CEO Satya Nadella detalhou o novo recurso Recall, que funcionará localmente e tirará screenshots constantes para lembrar as ações dos usuários nos PCs com Copilot+.

Além disso, um novo modelo multimodal Phi-3-vision está disponível, junto com a disponibilidade geral dos modelos Phi-3-small e Phi-3-medium. A empresa também apresentou o Team Copilot, um agente de IA para auxiliar os usuários nos aplicativos da Microsoft, e o Copilot Studio, uma ferramenta para desenvolvedores criarem e implementarem agentes de IA.

Para fechar com chave de ouro, a Microsoft anunciou uma parceria com a Khan Academy, oferecendo acesso a ferramentas de IA para todos os educadores dos EUA.

🔍 Explorando os impactos: 

A Microsoft continua sua semana de grandes novidades, mirando diretamente na concorrência e tentando desbancar a dominância do MacBook.

O recurso ‘Recall’ parece ser o maior trunfo – com potencial enorme, mas que exigirá muita confiança dos clientes para aceitar uma IA sempre vigilante.

💰 Scale AI arrecada $1B em financiamento

💊 Uma breve pílula: 

Startup de rotulagem de dados para IA, Scale AI, levanta $1B em financiamento Série F, avaliando a empresa em quase $14B.

🌌 Explorando os horizontes:

A Scale AI, startup especializada em fornecer dados rotulados para empresas que treinam modelos avançados de IA, acaba de levantar impressionantes $1B em financiamento Série F, elevando seu valor para quase $14B.

A Scale fornece dados rotulados para o treinamento de IA em setores como veículos autônomos, defesa e grandes modelos de GenAI. 

A rodada foi liderada pelo investidor já existente Accel, com participação de novos investidores, incluindo Amazon, Meta e outros. A receita da Scale triplicou em 2023 e deve atingir $1.4B até o final de 2024.

A empresa declarou que o novo financiamento ajudará a 'acelerar a abundância de dados de fronteira' que pavimentarão o caminho para a IA Geral (AGI).

🔍 Explorando os impactos: 

O crescimento rápido da Scale mostra que a IA não é nada sem dados utilizáveis — e à medida que os sistemas continuam a melhorar, essa necessidade só vai crescer.

Com uma avaliação de empresa de cair o queixo, a Scale é mais um exemplo de como existem diversos caminhos para o sucesso na era do boom da IA.

🗺️ Pesquisa: Mapeando a 'mente' de um LLM

💊 Uma breve pílula: 

Anthropic publica nova pesquisa que mapeia milhões de conceitos interpretáveis por humanos dentro das redes neurais do Claude.

🌌 Explorando os horizontes: 

A Anthropic divulgou uma pesquisa revolucionária que identificou e mapeou milhões de conceitos interpretáveis por humanos, chamados de “features”, dentro das redes neurais do Claude.

 Os pesquisadores usaram uma técnica chamada 'dictionary learning' para isolar padrões que correspondem a conceitos, desde objetos até ideias abstratas.

Ao ajustar esses padrões, a equipe demonstrou a capacidade de alterar as saídas do Claude, potencialmente levando a sistemas mais controláveis. Eles mapearam conceitos relacionados a preocupações de segurança em IA, como engano e busca de poder, oferecendo vislumbres de como os modelos entendem essas questões.

🔍 Explorando os impactos: 

Apesar do rápido avanço da IA, ainda não compreendemos totalmente o que se passa nos bastidores dos LLMs. Esta pesquisa é um grande passo para tornar a IA mais transparente — possibilitando uma melhor compreensão, controle e segurança dessas ferramentas poderosas

🛡️empresas de IA concordam em priorizar a segurança.

💊 Uma breve pílula: 

No grande evento de segurança em IA, dezesseis das maiores empresas de IA se comprometeram com limites éticos. Mas será que isso basta?

🌌 Explorando os horizontes: 

O evento global de segurança em IA de novembro foi o equivalente industrial do Met Gala, com uma lista de estrelas da tecnologia como Elon Musk e Sam Altman da OpenAI. O objetivo do alvoroço era claro: chamar a atenção internacional para os perigos potenciais da IA. Hoje, o evento de acompanhamento começa em Seul, mas críticos temem que nem todos tenham recebido o memorando. Alguns países, incluindo os Países Baixos e o Canadá, não enviaram representantes, e o DeepMind do Google não confirmou sua participação. Alguns argumentam que a baixa participação prova que nações e corporações já deixaram a segurança da IA de lado.

Mas não tão rápido: Apesar de não atrair tantos convidados de alto perfil, o evento pode ter um impacto maior a longo prazo.

Em um acordo inédito, dezesseis das maiores empresas de IA, incluindo Microsoft, OpenAI, Google e Amazon, concordaram com algumas "linhas vermelhas" que nunca devem ser cruzadas. Eles prometeram parar de desenvolver quaisquer modelos capazes de gerar ataques cibernéticos em grande escala ou armas biológicas.

Os governos também estão trabalhando no problema: Durante uma reunião, os EUA anunciaram uma parceria com o Reino Unido, Japão e outros para criar institutos de segurança que pesquisariam os riscos potenciais da IA.

Especialistas apontam que provavelmente levará algum tempo para que todos alinhem os mesmos objetivos, especialmente devido às tensões geopolíticas atuais. "Não significará nada se não levar a ações," disse Carissa Véliz, pesquisadora de ética em IA, à Fast Company. "E eu acho que ainda estamos em cima do muro."

🔍 Explorando os impactos: 

A segurança da IA é um tema quente, mas se as promessas não se traduzirem em ações reais, tudo isso será apenas um espetáculo vazio. Fique de olho nos próximos capítulos deste drama de alta tecnologia.