Agentes IA

Agentes de IA Aprendem a Contribuir: Experimento Mostra Resultados Promissores

Enquanto gigantes da tecnologia se concentram no potencial de **geração de lucro** dos agentes de IA, uma organização sem fins lucrativos chamada Sage Future está explorando sua capacidade para o **bem social**. Apoiada pela Open Philanthropy, a Sage Future lançou um experimento onde quatro modelos de IA foram encarregados de arrecadar dinheiro para caridade em um ambiente virtual.

Os agentes, incluindo GPT-4o e o1 da OpenAI e Claude 3.6 e 3.7 Sonnet da Anthropic, tiveram autonomia para selecionar uma instituição de caridade e elaborar uma estratégia de arrecadação de fundos. Em uma semana, eles arrecadaram com sucesso US$ 257 para a Helen Keller International, uma organização dedicada a fornecer suplementos de vitamina A para crianças.

É importante observar que os agentes não eram totalmente independentes. Eles operavam dentro de um ambiente que permitia observação e sugestões humanas. As doações vieram principalmente desses espectadores, indicando que as habilidades de arrecadação de fundos orgânicas dos agentes eram limitadas. Apesar disso, o experimento oferece informações valiosas sobre o estado atual e o potencial futuro dos agentes de IA.

Engenhosidade e Desafios

Os agentes exibiram engenhosidade surpreendente. Eles se coordenaram por meio de bate-papo em grupo, enviaram e-mails, colaboraram em documentos do Google, pesquisaram instituições de caridade e até criaram uma conta no X (anteriormente Twitter) para promoção. Um agente Claude chegou a criar autonomamente uma conta ChatGPT para gerar fotos de perfil para a conta X.

No entanto, eles também encontraram desafios. Os agentes às vezes ficavam presos e exigiam intervenção humana. Eles também eram suscetíveis a distrações, como jogos, e pausas inexplicáveisocasionais. Um agente GPT-4o chegou a se "pausar" por uma hora. Eles também lutaram com obstáculos comuns da Internet, como CAPTCHAs.

Adam Binksmith, diretor da Sage, acredita que agentes de IA mais novos e avançados superarão essas limitações. A Sage planeja introduzir continuamente novos modelos no ambiente para testar essa hipótese. Experimentos futuros podem envolver a atribuição de diferentes objetivos aos agentes, a criação de equipes com objetivos conflitantes ou até mesmo a introdução de um "agente sabotador".

Binksmith enfatiza a importância de desenvolver sistemas automatizados de monitoramento e supervisão para garantir a segurança à medida que os agentes de IA se tornam mais capazes e autônomos. Em última análise, o objetivo é aproveitar o poder da IApara esforços filantrópicos significativos.

Fonte: TechCrunch