
Segurança em IA e AGI: O Alerta da Anthropic sobre Inteligência Artificial Geral
Explore as preocupações do cofundador da Anthropic, Jack Clark, sobre segurança em IA, consciência situacional em grandes modelos de linguagem e o cenário regul...

Explore a perspectiva detalhada de Andrej Karpathy sobre os cronogramas da AGI, agentes de IA e por que a próxima década será crítica para o desenvolvimento da inteligência artificial. Entenda a diferença entre o hype e a realidade no avanço da IA.
Andrej Karpathy, uma das figuras mais influentes em inteligência artificial e ex-diretor de IA da Tesla, recentemente ganhou destaque ao afirmar que a inteligência artificial geral (AGI) ainda está a cerca de 10 a 15 anos de distância. Essa perspectiva contrasta fortemente com o otimismo predominante no Vale do Silício e entre entusiastas da IA, que frequentemente declaram que capacidades transformadoras de IA estão logo ali. Em vez de descartar o progresso notável que presenciamos com grandes modelos de linguagem desde o final de 2022, Karpathy oferece uma avaliação mais nuançada e fundamentada de onde realmente estamos na jornada do desenvolvimento da IA. Sua análise revela um gap crítico entre as capacidades impressionantes dos sistemas atuais de IA e o trabalho substancial necessário para alcançar uma verdadeira inteligência artificial geral. Nesta análise abrangente, vamos examinar o raciocínio detalhado de Karpathy sobre os cronogramas da AGI, a distinção entre o “ano dos agentes” e a “década dos agentes”, as diferenças fundamentais entre como LLMs e sistemas biológicos aprendem, e por que ele permanece cético quanto a abordagens populares como o aprendizado por reforço como principal caminho. Compreender esses insights é essencial para quem busca entender o real trajeto do desenvolvimento da IA e os desafios que estão por vir.
A inteligência artificial geral representa um estado teórico onde um sistema de IA pode compreender, aprender e aplicar conhecimento em qualquer domínio intelectual com a mesma flexibilidade e adaptabilidade de um ser humano. Diferente de sistemas de IA restritos a tarefas específicas—como jogar xadrez, reconhecer imagens ou gerar textos—a AGI teria a capacidade de transferir aprendizado entre domínios, resolver problemas novos sem treinamento explícito e demonstrar raciocínio genuíno. A distinção entre os grandes modelos de linguagem atuais e a verdadeira AGI não é apenas uma questão de escala ou métricas de desempenho; ela representa uma diferença fundamental em como esses sistemas operam e no que podem realizar. Os LLMs atuais, apesar de suas habilidades impressionantes em gerar textos coerentes, responder perguntas complexas e até escrever código, são fundamentalmente sistemas de reconhecimento de padrões treinados em enormes volumes de dados da internet. Eles se destacam em interpolar dentro do espaço de seus dados de treinamento, mas têm dificuldades com extrapolação genuína e resolução de problemas inéditos de formas que seriam triviais para um humano com inteligência geral. O caminho para a AGI exige não apenas modelos melhores, mas abordagens inteiramente novas para aprendizado, raciocínio e interação com o mundo. Por isso, a avaliação de Karpathy de um cronograma superior a 10 anos é significativa—ela reconhece tanto o progresso genuíno quanto os desafios substanciais restantes que não podem ser superados apenas com melhorias incrementais.
A indústria de tecnologia tem um histórico bem documentado de superestimar o progresso de curto prazo enquanto subestima as transformações de longo prazo. No contexto da IA, essa tendência se manifesta como um descompasso entre as capacidades impressionantes demonstradas por modelos de ponta e a aplicação real dessas capacidades em sistemas economicamente valiosos. Quando OpenAI, Google e outros laboratórios anunciam novos modelos com habilidades notáveis, a mídia e a comunidade de investimentos frequentemente extrapolam essas capacidades para impactos imediatos no mundo real. No entanto, a jornada de um modelo capaz até um sistema implantado, confiável e economicamente valioso envolve inúmeros desafios que geralmente são negligenciados diante do entusiasmo pelos avanços técnicos. Esses desafios incluem construir infraestrutura robusta, integrar sistemas de IA aos processos de negócios existentes, lidar com questões de segurança, desenvolver interfaces adequadas e, principalmente, resolver o “problema do scaffolding”—o gap entre as capacidades brutas do modelo e as aplicações práticas. A perspectiva de Karpathy reflete uma compreensão madura desse gap, informada por sua experiência em construir sistemas de IA em escala. Ele reconhece que as pessoas mais imersas no desenvolvimento de IA—seja em laboratórios de pesquisa, empresas de tecnologia ou comunidades focadas em IA—tendem a ser as mais otimistas em relação aos prazos, muitas vezes por um fator de cinco a dez vezes. Esse viés de otimismo decorre da proximidade com as capacidades de ponta e de uma tendência a subestimar os desafios de integração. Enquanto isso, céticos frequentemente desconsideram o progresso genuíno já alcançado, sem valorizar o quão longe o campo avançou. Karpathy se posiciona deliberadamente no meio-termo, reconhecendo tanto os avanços reais quanto o trabalho substancial que resta.
Uma das principais clarificações de Karpathy diz respeito à terminologia sobre agentes de IA. Quando líderes da indústria declaram que “2025 é o ano dos agentes”, geralmente querem dizer que agentes de IA serão um grande foco de atenção, investimento e implementação inicial. Isso é quase certamente verdade—já estamos vendo grande interesse em sistemas agentivos, com empresas como a OpenAI lançando ferramentas que controlam navegadores web e realizam tarefas em nome dos usuários. No entanto, Karpathy argumenta que, embora 2025 possa ser o ano em que os agentes ganham atenção mainstream, o desenvolvimento e a proliferação de agentes realmente úteis, confiáveis e economicamente valiosos levará toda uma década. Essa distinção é crucial pois separa ciclos de hype de uma maturação tecnológica genuína. A “década dos agentes” representa o período em que a infraestrutura, as melhores práticas, mecanismos de segurança e padrões de integração para sistemas agentivos serão desenvolvidos e refinados. Durante essa década, veremos os agentes passarem de demonstrações impressionantes para ferramentas confiáveis das quais empresas e indivíduos dependerão para tarefas críticas. Esse cronograma segue padrões históricos de adoção tecnológica—a internet tornou-se foco na década de 1990, mas só transformou verdadeiramente a economia nos anos 2000 e 2010. Da mesma forma, agentes de IA podem ganhar atenção em 2025, mas seu real impacto econômico se dará ao longo da década seguinte.
Karpathy traça um paralelo interessante entre agentes de IA no mundo digital e robôs humanóides no mundo físico. Ambos representam tentativas de criar sistemas de uso geral capazes de executar tarefas arbitrárias por meio de uma interface projetada para humanos—no caso dos agentes, um navegador web e teclado/mouse; no caso dos robôs, um corpo humano com sensores e atuadores. Essa comparação ilustra por que agentes digitais podem alcançar utilidade prática mais rapidamente do que robôs físicos, embora o mundo físico possa oferecer oportunidades de mercado maiores. O insight principal é que manipular informações digitais é aproximadamente mil vezes mais barato do que manipular matéria física. Um agente de IA pode executar milhões de tarefas na internet com custo computacional mínimo, enquanto um robô humanóide precisa se mover fisicamente, manipular objetos e vencer as limitações da física. Essa diferença de custo faz com que agentes digitais provavelmente alcancem viabilidade econômica e implantação em larga escala muito antes dos robôs humanóides. No entanto, Karpathy observa um contraponto interessante: a oportunidade de mercado no mundo físico pode, no fim, ser maior do que no digital. O trabalho do conhecimento—domínio onde atuam os agentes digitais—é certamente um mercado substancial, mas a automação física pode eventualmente transformar manufatura, construção, logística e inúmeros outros setores. O foco atual em agentes digitais reflete não só a viabilidade técnica, mas também a oportunidade econômica imediata em automatizar o trabalho do conhecimento. À medida que agentes digitais amadurecem e se tornam valiosos, os recursos e insights gerados acelerarão os avanços em robótica física, criando um mundo de autonomia mista, onde humanos serão cada vez mais supervisores de alto nível de automação de baixo nível em domínios digitais e físicos.
À medida que as organizações passam a implementar agentes de IA, o desafio de orquestrar múltiplos agentes, gerenciar suas interações e garantir desempenho confiável torna-se cada vez mais crítico. É aqui que plataformas como o FlowHunt desempenham papel essencial no ecossistema de infraestrutura de IA emergente. O FlowHunt permite que equipes construam, testem e implementem fluxos de trabalho complexos de IA que combinam múltiplos agentes e modelos trabalhando em conjunto. Em vez de tratar cada capacidade de IA de forma isolada, o FlowHunt possibilita a criação de pipelines de automação sofisticados, unindo pesquisa, geração de conteúdo, análise e tomada de decisão em sistemas coesos. A plataforma aborda muitos dos desafios de scaffolding que Karpathy identifica como críticos para a década dos agentes. Ao fornecer ferramentas para design, monitoramento e otimização de fluxos de trabalho, o FlowHunt ajuda a preencher o gap entre capacidades impressionantes de IA e aplicações práticas e valiosas. À medida que a década dos agentes avança, plataformas capazes de orquestrar sistemas agentivos de forma eficiente serão cada vez mais valiosas, permitindo que organizações extraiam o máximo valor dos investimentos em IA com controle, transparência e confiabilidade.
Uma das contribuições mais instigantes de Karpathy ao debate sobre IA é a distinção entre como animais aprendem e como grandes modelos de linguagem aprendem. Esse enquadramento fornece um insight crucial sobre as capacidades e limitações dos sistemas atuais de IA. Animais, incluindo humanos, nascem com uma enorme quantidade de inteligência pré-embutida, codificada no DNA por milhões de anos de evolução. Um filhote de zebra, por exemplo, pode ficar de pé e caminhar em poucas horas—um feito que requer entendimento sofisticado de equilíbrio, controle motor e raciocínio espacial. Esse conhecimento não é aprendido; é herdado evolutivamente. O aprendizado realizado por animais é relativamente pequeno comparado à vasta quantidade de conhecimento inato que possuem. Eles refinam instintos, adaptam-se ao ambiente e desenvolvem habilidades dentro da herança evolutiva. Já os grandes modelos de linguagem aprendem por um processo fundamentalmente diferente. Em vez de herdar conhecimento evolutivo, os LLMs são treinados em grandes volumes de textos da internet por meio de predição do próximo token—essencialmente aprendendo a prever a próxima palavra em uma sequência. Essa abordagem se mostrou notavelmente eficaz em capturar padrões do conhecimento humano e da linguagem, mas opera por um mecanismo que Karpathy descreve como mais semelhante a “fantasmas ou espíritos” do que ao aprendizado biológico. LLMs não possuem o conhecimento incorporado que animais têm; em vez disso, absorveram padrões de textos gerados por humanos. Essa distinção tem profundas implicações para entender os pontos fortes e as limitações dos sistemas atuais de IA.
Uma limitação crítica dos LLMs atuais, segundo Karpathy, é sua tendência à memorização, não à generalização. Embora esses modelos demonstrem desempenho impressionante em benchmarks e aplicações práticas, muito desse sucesso vem de já terem visto padrões similares durante o treinamento, e não de entendimento genuíno ou generalização. A verdadeira generalização significaria a capacidade de aplicar princípios aprendidos a situações novas, significativamente diferentes dos dados de treinamento. É aí que benchmarks como o ARC Prize (Abstraction and Reasoning Corpus) ganham importância—eles testam especificamente a generalização, não a memorização. A diferença entre memorização e generalização não é meramente acadêmica; é fundamental para atingir a AGI. Um sistema que memoriza pode ir bem em tarefas similares às do treinamento, mas falha catastroficamente diante de problemas realmente novos. Alcançar generalização genuína exige mecanismos de aprendizado fundamentalmente diferentes dos usados hoje nos LLMs. O ceticismo de Karpathy quanto ao caminho atual da AGI vem, em parte, do reconhecimento de que construímos máquinas impressionantes de memorização, mas ainda não deciframos o código da generalização real. Os modelos são “fantasmas” no sentido de terem absorvido padrões do conhecimento humano, mas carecem da compreensão profunda e do raciocínio flexível que caracterizam a inteligência biológica. Sair da memorização para a generalização exigirá não apenas melhores dados ou modelos maiores, mas novas abordagens de aprendizado, incorporando princípios mais próximos daqueles com que sistemas biológicos desenvolvem compreensão ao interagir com o mundo.
O aprendizado por reforço (RL) tornou-se foco central para muitos laboratórios de IA que buscam a AGI, com empresas como OpenAI, DeepMind e outras investindo pesado em abordagens baseadas em RL. No entanto, Karpathy expressa ceticismo significativo quanto ao RL como caminho principal para a AGI, apesar de reconhecer seu potencial. Sua crítica se centra em várias limitações fundamentais das abordagens atuais de RL. Primeiro, ele aponta o que chama de “sugar supervisão por um canudo”—o problema de a relação sinal-ruído em RL ser extremamente baixa. Ou seja, a quantidade de aprendizado realmente obtida por unidade de computação é pequena. Essa ineficiência torna-se cada vez mais problemática à medida que se tenta escalar o RL para domínios mais complexos. Segundo, Karpathy destaca o desafio de recompensas baseadas em resultados. Quando um modelo recebe feedback apenas sobre se a resposta final está correta, ele tem dificuldade em aprender com os passos intermediários que levaram à resposta. Por exemplo, se um modelo resolve um problema matemático com vários pensamentos intermediários errados, mas chega à resposta certa, todo o processo de raciocínio é recompensado, inclusive os erros. Isso gera um sinal de aprendizado ruidoso que pode reforçar padrões errados. Recompensas de processo tentam contornar isso, fornecendo feedback sobre passos intermediários, mas trazem seus próprios problemas. Se um modelo dá cinco passos corretos de raciocínio, mas chega a uma resposta final errada, o sinal da recompensa de processo se torna contraditório—os passos intermediários foram bons, mas o resultado geral foi errado. Essa ambiguidade dificulta o aprendizado efetivo. O ceticismo de Karpathy sobre RL não significa que ele ache a abordagem inútil; ele apenas acredita que não é o principal caminho para a AGI. Ele se descreve como “otimista com interação agentiva, mas cético com RL”, sugerindo que outros paradigmas de aprendizado serão mais eficazes. Essa visão, embora contrária ao entusiasmo da indústria por RL, reflete compreensão profunda dos desafios técnicos para escalar RL até a inteligência geral genuína.
Se Karpathy é cético quanto ao aprendizado por reforço como principal caminho para a AGI, o que ele considera mais promissor? Sua resposta aponta para interação agentiva e modelos de mundo. Em vez de aprender a partir de conjuntos de dados estáticos ou recompensas de resultado, agentes poderiam aprender por meio da interação com ambientes simulados ou reais, desenvolvendo modelos cada vez mais sofisticados de como o mundo funciona. Essa abordagem tem precedentes históricos na pesquisa em IA. O sucesso da DeepMind em criar sistemas que dominam jogos complexos como Go baseou-se fortemente em agentes jogando contra si mesmos em ambientes simulados, melhorando gradualmente por interação e não por aprendizado supervisionado em demonstrações humanas. Modelos de mundo representam uma direção particularmente promissora. Um modelo de mundo é, essencialmente, uma representação aprendida de como o mundo funciona—física, causalidade e dinâmicas que determinam os resultados. Um agente equipado com um modelo de mundo pode raciocinar sobre as consequências de suas ações antes de tomá-las, planejar vários passos à frente e transferir conhecimento de um domínio para outro de forma mais eficaz. Pesquisas recentes de empresas como DeepMind (Genie), NVIDIA (Cosmos), Meta (V-JEPA) e Wayve (GAIA-2) demonstram o crescente investimento em modelos de mundo. Esses sistemas aprendem a prever como cenas visuais evoluem com base nas ações do agente, criando uma espécie de playground onde o agente pode experimentar e aprender. A vantagem dessa abordagem é que ela se aproxima mais de como sistemas biológicos aprendem—por interação com o ambiente e desenvolvimento de compreensão causal. Em vez de memorizar padrões de texto, agentes aprendem por experimentação ativa e observação de consequências. Essa abordagem também lida mais diretamente com o problema da generalização, pois entender relações causais e dinâmicas do mundo transfere-se melhor para situações novas do que padrões memorizados.
Karpathy faz referência a seu trabalho anterior em “aprendizado de prompt de sistema”, conceito que representa uma importante evolução na forma como pensamos o treinamento e adaptação de sistemas de IA. O aprendizado de prompt de sistema refere-se à ideia de que grande parte do comportamento e das capacidades de um sistema de IA pode ser moldada pelo design cuidadoso do prompt do sistema—as instruções e o contexto fornecidos ao modelo no início da interação. Em vez de exigir re-treinamento ou fine-tuning caro, o aprendizado de prompt de sistema sugere que podemos adaptar e melhorar sistemas de IA otimizando os prompts que guiam seu comportamento. Esse conceito tem implicações profundas para a década dos agentes. À medida que organizações implantam agentes para diversas tarefas, precisarão de mecanismos para adaptá-los a domínios, setores e usos específicos sem re-treinamento completo. O aprendizado de prompt de sistema oferece uma abordagem escalável para essa adaptação. Ao elaborar cuidadosamente prompts que incorporem conhecimento do domínio, especificações de tarefa e diretrizes comportamentais, organizações conseguem criar agentes especializados a partir de modelos genéricos. Essa abordagem também se alinha ao conceito de scaffolding—a infraestrutura e as ferramentas que conectam as capacidades brutas do modelo às aplicações práticas. O aprendizado de prompt de sistema faz parte dessa camada de scaffolding, permitindo extrair o máximo valor dos modelos de IA sem exigir expertise técnica profunda em treinamento de modelos. Karpathy observa que vários artigos recentes estão “seguindo o caminho certo” na exploração desse conceito, indicando que essa direção está ganhando tração na comunidade de pesquisa.
Talvez o insight mais importante da análise de Karpathy seja a ênfase no “problema do scaffolding”—o gap entre capacidades brutas do modelo e aplicações práticas, economicamente valiosas. Esse conceito, às vezes chamado de “model overhang”, reconhece que modelos de ponta atuais possuem capacidades que vão muito além do que foi efetivamente implantado ou monetizado. A inteligência está nos modelos, mas as ferramentas, infraestrutura, sistemas de memória e padrões de integração necessários para realmente aproveitá-la ainda estão sendo construídos. Esse scaffolding inclui vários componentes: APIs robustas e interfaces para acesso aos modelos, sistemas de memória que permitem a agentes manter contexto e aprender com experiência, ferramentas de monitoramento e observabilidade para entender o comportamento de agentes, mecanismos de segurança para prevenir uso indevido, padrões de integração para conectar agentes a sistemas de negócio existentes e interfaces amigáveis para usuários não técnicos. A década dos agentes será dedicada, em grande parte, a construir esse scaffolding. Empresas e pesquisadores desenvolverão melhores práticas para implantar agentes, criar ferramentas e plataformas acessíveis, estabelecer padrões de segurança e integrar sistemas agentivos ao ecossistema tecnológico mais amplo. Esse trabalho é menos glamoroso do que criar novas arquiteturas de modelo ou conquistar avanços de capacidade, mas é absolutamente essencial para traduzir capacidades de IA em valor econômico. A ênfase de Karpathy no scaffolding reflete compreensão madura do desenvolvimento tecnológico—capacidades de ponta são necessárias, mas não suficientes para impacto real. As empresas e plataformas que construírem com sucesso essa camada de scaffolding provavelmente capturarão grande valor durante a década dos agentes, mesmo que não desenvolvam os modelos mais avançados.
Além dos desafios técnicos de scaffolding e generalização, Karpathy identifica outros tipos de trabalho necessários antes de atingirmos a AGI. Segurança representa uma preocupação crítica. À medida que agentes se tornam mais capazes e autônomos, garantir que operem de maneira segura e protegida torna-se cada vez mais importante. Isso inclui prevenir jailbreaks (tentativas de manipular agentes para ignorar diretrizes), defender contra ataques de envenenamento (tentativas de corromper dados de treinamento ou comportamento do agente) e desenvolver mecanismos de alinhamento robustos para garantir que agentes busquem objetivos pretendidos. O trabalho social representa outra dimensão essencial. A implantação de agentes cada vez mais capazes terá impactos profundos no emprego, educação, desigualdade econômica e estruturas sociais. Desenvolver políticas, regulamentações e estruturas sociais adequadas para integração da IA exige participação de legisladores, especialistas em ética, cientistas sociais e o público em geral. Esse trabalho não pode ser apressado e provavelmente se estenderá além da década dos agentes. A integração com o mundo físico traz desafios adicionais. Embora agentes digitais possam operar puramente no digital, muitas aplicações valiosas exigem interação com sistemas físicos—controlando robôs, gerenciando processos industriais, coordenando logística. Isso demanda não só IA capaz, mas também sensores, atuadores e infraestrutura física. O trabalho de pesquisa remanescente também é substancial. Embora modelos atuais demonstrem capacidades notáveis, ainda há questões fundamentais sobre como alcançar generalização genuína, como construir sistemas que raciocinem sobre causalidade e contra-factuais, como criar agentes que possam aprender e se adaptar continuamente, e como escalar essas abordagens para domínios complexos do mundo real. O cronograma de 10+ anos de Karpathy reflete a magnitude desse trabalho em todas essas dimensões.
Experimente como o FlowHunt automatiza seus fluxos de conteúdo de IA e SEO — do research e geração à publicação e analytics — tudo em um só lugar.
A análise de Karpathy se destaca por seu posicionamento deliberado entre dois extremos: o otimismo desenfreado de entusiastas que veem a AGI chegando em poucos anos e o ceticismo de quem descarta o progresso genuíno já alcançado. Ele descreve seus próprios cronogramas como “cinco a dez vezes mais pessimistas” que o que se ouve em eventos típicos da indústria de IA, mas “extremamente otimistas” em comparação ao ceticismo mais amplo quanto ao potencial da IA. Essa perspectiva equilibrada se fundamenta em várias observações. Primeiro, o progresso nos grandes modelos de linguagem nos últimos dois anos foi realmente notável. As capacidades demonstradas por modelos como GPT-4, Claude e outros representam um salto genuíno. A habilidade de realizar raciocínio complexo, escrever código, analisar documentos e ajudar em tarefas criativas parecia ficção científica até poucos anos atrás. Esse progresso é real e não deve ser descartado. Segundo, porém, ainda há um enorme trabalho entre as capacidades atuais e a verdadeira AGI. O gap entre demonstrações impressionantes e sistemas confiáveis e valiosos economicamente é substancial. Os desafios de generalização, segurança, integração e deployment não são triviais e não serão superados apenas com melhorias incrementais. Terceiro, a tendência da indústria a ciclos de hype faz com que expectativas frequentemente não correspondam à realidade. Cada novo modelo lançado com capacidades impressionantes leva a mídia e investidores a extrapolarem para impacto imediato, um padrão repetido várias vezes na história da IA, com ciclos de hype seguidos de decepção. A perspectiva equilibrada de Karpathy busca evitar tanto o excesso de otimismo quanto o erro de descartar avanços genuínos. Seu cronograma de 10+ anos para AGI deve ser entendido não como previsão definitiva, mas como avaliação realista da magnitude do trabalho necessário, baseada na experiência profunda em desenvolvimento de IA.
Embora Karpathy enfatize os desafios técnicos à frente, é importante reconhecer a enorme oportunidade econômica representada pela década dos agentes. Mesmo que a verdadeira AGI ainda esteja distante, o desenvolvimento de agentes de IA cada vez mais capazes e úteis criará grande valor econômico. Empresas que conseguirem implantar agentes para atendimento ao cliente, criação de conteúdo, análise de dados, desenvolvimento de software e inúmeras outras tarefas ganharão vantagens competitivas. Indústrias serão transformadas à medida que o trabalho cognitivo rotineiro for automatizado. Novos modelos de negócio surgirão em torno do desenvolvimento, deployment e gestão de agentes. As empresas e plataformas que construírem a camada de scaffolding—ferramentas, infraestrutura e melhores práticas para desenvolvimento de agentes—capturarão valor significativo. É aí que plataformas como o FlowHunt se posicionam como infraestrutura essencial para a economia agentiva emergente. Ao facilitar a construção, teste, deployment e gestão de fluxos de trabalho de IA, o FlowHunt permite que organizações participem da década dos agentes sem exigir expertise profunda em IA. A oportunidade econômica não depende da chegada da AGI; ela decorre do desenvolvimento de agentes cada vez mais úteis que resolvem problemas reais de negócio.
A análise de Karpathy tem implicações importantes para a estratégia e investimento em IA das organizações. Primeiro, sugere que o foco deve estar em aplicações de curto prazo e criação de valor, e não em apostar todas as fichas em breakthroughs da AGI. As empresas bem-sucedidas na década dos agentes serão as que implantarem agentes para tarefas práticas, aprenderem com o deployment real e melhorarem continuamente seus sistemas. Segundo, enfatiza a importância da infraestrutura e ferramentas. Empresas que construírem a camada de scaffolding—plataformas, ferramentas e melhores práticas que facilitam o desenvolvimento de agentes—provavelmente capturarão mais valor do que aquelas focadas apenas em desenvolvimento de modelos. Isso porque o scaffolding é o gargalo que impede que as capacidades atuais se traduzam em valor econômico. Terceiro, sugere que o caminho para a AGI provavelmente envolverá múltiplas abordagens e paradigmas, e não um único breakthrough. O ceticismo de Karpathy quanto ao RL como único caminho, combinado ao entusiasmo por interação agentiva e modelos de mundo, indica que o progresso virá da exploração simultânea de múltiplas direções. Organizações devem manter flexibilidade e evitar apostar tudo em uma única abordagem. Quarto, destaca a importância de segurança e desenvolvimento responsável de IA. À medida que agentes se tornam mais autônomos, garantir que operem de forma segura e alinhada a valores humanos torna-se crítico. Organizações que investirem cedo em segurança estarão melhor posicionadas no longo prazo.
A avaliação de Andrej Karpathy de que a AGI ainda está a mais de 10 anos de distância, enquanto a próxima década será a “década dos agentes”, oferece uma perspectiva fundamentada e nuançada sobre o estado atual e o futuro da inteligência artificial. Sua análise reconhece tanto os avanços genuínos nos grandes modelos de linguagem quanto o trabalho substancial que resta em scaffolding, generalização, segurança e integração. A distinção entre “ano dos agentes” e “década dos agentes” captura uma verdade importante: embora agentes de IA ganhem atenção mainstream no curto prazo, seu real impacto econômico e maturidade acontecerão em um prazo mais longo. Seu enquadramento sobre como animais e LLMs aprendem ilumina tanto as capacidades quanto as limitações dos sistemas atuais; seu ceticismo quanto ao aprendizado por reforço e entusiasmo por interação agentiva e modelos de mundo apontam para caminhos promissores de pesquisa. Mais importante ainda, a ênfase de Karpathy no problema do scaffolding—o gap entre capacidades brutas de modelo e aplicações práticas—identifica o verdadeiro gargalo do desenvolvimento da IA. As empresas, plataformas e pesquisadores que conseguirem construir essa camada de scaffolding terão papel crucial na tradução das capacidades da IA em valor econômico durante a década dos agentes. Em vez de esperar pela AGI, organizações deveriam focar em implantar agentes cada vez mais capazes para tarefas práticas, aprender com o deployment real e melhorar continuamente seus sistemas. A década dos agentes representa uma enorme oportunidade para quem entende tanto o progresso genuíno já feito quanto o trabalho substancial que resta.
Karpathy distingue entre as capacidades impressionantes dos LLMs e a verdadeira inteligência artificial geral. Embora os modelos atuais mostrem desempenho notável, ainda há muito trabalho a ser feito em scaffolding, integração, segurança e alcançar generalização genuína, em vez de simples memorização. Ele se posiciona entre os otimistas e os pessimistas extremos.
O 'ano dos agentes' refere-se ao momento em que os agentes de IA se tornam foco de atenção e das primeiras implementações. Já a 'década dos agentes' representa o ciclo completo de desenvolvimento necessário para criar agentes realmente utilizáveis, valiosos e que proliferem economicamente nos setores.
Os animais já nascem com inteligência evolutiva embutida e aprendem minimamente. Os LLMs aprendem prevendo o próximo token em grandes volumes de dados da internet, tornando-os mais semelhantes a 'fantasmas' do que a animais. Essa abordagem tem limitações de generalização e exige outro tipo de scaffolding para se tornarem mais parecidos com animais.
Karpathy argumenta que recompensas baseadas em resultados no RL apresentam uma baixa relação sinal-ruído e têm dificuldades com etapas intermediárias. Recompensas de processo ajudam, mas ainda apresentam limitações. Ele acredita que interação agente e modelos de mundo são caminhos mais promissores para alcançar generalização genuína.
Arshia é Engenheira de Fluxos de Trabalho de IA na FlowHunt. Com formação em ciência da computação e paixão por IA, ela se especializa em criar fluxos de trabalho eficientes que integram ferramentas de IA em tarefas do dia a dia, aumentando a produtividade e a criatividade.
Construa fluxos de trabalho inteligentes de agentes de IA que aprendem e se adaptam. O FlowHunt ajuda você a orquestrar processos complexos de IA, do research ao deployment.
Explore as preocupações do cofundador da Anthropic, Jack Clark, sobre segurança em IA, consciência situacional em grandes modelos de linguagem e o cenário regul...
Mergulhe na entrevista de Dario Amodei no Podcast de Lex Fridman, onde ele discute leis de escala da IA, previsões para inteligência em nível humano até 2026-20...
Descubra as formas surpreendentes como as pessoas estão utilizando a IA em 2025: de terapia e organização da vida a encontrar propósito, a IA está deixando de s...
Consentimento de Cookies
Usamos cookies para melhorar sua experiência de navegação e analisar nosso tráfego. See our privacy policy.


