Fred e Balaji Estão Agora no Slack: Os Agentes de Persona da Coinbase e o Nascimento dos Gêmeos Cognitivos no Trabalho
Em 18 de abril de 2026, Brian Armstrong anunciou que dois dos ex-membros mais influentes da Coinbase haviam retornado à empresa — não como conselheiros, membros do conselho ou consultores, mas como software. O agente "Fred", modelado no cofundador Fred Ehrsam, agora vive dentro do workspace do Slack da Coinbase como um executivo estratégico. O agente "Balaji", uma réplica cognitiva do ex-CTO Balaji Srinivasan, aparece em threads de funcionários para fazer perguntas desconfortáveis e desafiar premissas. Três semanas depois, em 5 de maio, a Coinbase demitiu 14 % de sua força de trabalho — cerca de 700 pessoas — e reorganizou os sobreviventes em torno de "pods nativos de IA" que respondem a "jogadores-treinadores" em vez de puros gestores. Os dois eventos não são isolados. Juntos, eles esboçam um futuro onde o trabalho cognitivo dos funcionários mais valiosos que deixaram uma empresa é preservado, escalado e implantado como infraestrutura.
Esta é uma história sobre mais do que um experimento de RH de uma exchange. É um vislumbre de como o padrão de agente de persona — gêmeos cognitivos fine-tuned e sempre ativos de indivíduos específicos — está prestes a remodelar a forma como as empresas lembram, decidem e operam.
O que "Fred" e "Balaji" Realmente Fazem
Os dois agentes têm mandatos distintos que refletem as personalidades nas quais foram treinados.
O agente Fred funciona como um executivo estratégico. Os funcionários o consultam quando desejam uma revisão de nível sênior em um documento, uma verificação de realidade sobre se um projeto está alinhado com as prioridades da empresa, ou uma crítica ao estilo C-suite de um plano de lançamento. Seu trabalho é aplicar o estilo particular de Ehrsam de estratégia de produto disciplinada — os mesmos instintos que ajudaram a levar a Coinbase à bolsa e que agora impulsionam a tese de investimento da Paradigm.
O agente Balaji desempenha um papel diferente. Ele é o provocador interno, projetado para trazer à tona implicações de longo prazo e fazer as perguntas que a cultura corporativa educada costuma suprimir. Onde Fred refina, Balaji rompe. Treinado em anos de escritos de Srinivasan, aparições em podcasts e na tese do "Estado em Rede", o agente personifica o estilo contrário, porém sistemático, que definiu seu mandato como CTO da Coinbase e seu papel na a16z Crypto.
Crucialmente, estes não são assistentes genéricos de LLM com um prompt personalizado. De acordo com os planos da Coinbase, agentes como esses estão sendo construídos como réplicas fine-tuned — a persona está nos pesos, não apenas na mensagem do sistema. E a empresa sinalizou que pretende tornar a criação de novos agentes trivialmente fácil. Como Armstrong colocou em seu anúncio de 18 de abril: "Suspeito que teremos mais agentes do que funcionários humanos em algum momento próximo."
Como os Agentes de Persona Diferem dos LLMs Genéricos
Para entender por que isso importa, é útil traçar uma linha entre três categorias de ferramentas de IA que parecem superficialmente semelhantes, mas resolvem problemas muito diferentes.
Assistentes de LLM genéricos, como o ChatGPT padrão ou uma integração simples do Claude, são ferramentas de amplitude. Eles sabem um pouco sobre tudo e muito sobre nada em particular. Eles fornecem respostas competentes e médias porque foram otimizados para serem inofensivos em milhões de casos de uso.
Agentes de produtividade — os novos recursos do Agentforce 360 do Slackbot, o nível empresarial do Microsoft Copilot — são ferramentas de contexto. Eles conhecem suas reuniões, seu CRM, seus documentos e executam o trabalho em seu nome. O lançamento do Slackbot em janeiro de 2026 como um "agente de IA consciente do contexto" é um bom exemplo: ele resume conversas, redige respostas e atualiza registros do Salesforce. Mas ele não tem opinião sobre se sua estratégia está correta.
Agentes de persona são ferramentas de julgamento. Eles são ajustados (fine-tuned) em um corpo de trabalho específico de uma pessoa — e-mails, memorandos, transcrições de podcasts, documentos internos, textos públicos — para incorporar as heurísticas de decisão dessa pessoa. O agente Fred não é "uma IA que ajuda com estratégia". É "uma IA que pensa sobre estratégia da mesma forma que Fred Ehrsam faz".
Essa distinção é mais do que marketing. Décadas de tomada de decisão por uma pessoa excepcionalmente eficaz representam uma forma de conhecimento comprimido que nenhum modelo de base genérico pode reproduzir. Quando você pergunta ao agente Balaji se um recurso de produto se alinha com a visão de longo prazo de uma internet soberana, você não está pedindo ao GPT-5 para fazer um roleplay. Você está interrogando uma destilação fine-tuned de alguém que passou vinte anos pensando exatamente sobre essa questão.
A Questão do Consentimento — e o que Ela Esconde
Tanto Ehrsam quanto Srinivasan endossaram publicamente o projeto, o que evita a mina terrestre legal mais óbvia. Não há um momento Scarlett Johansson aqui, nem um processo de sindicato de atores prestes a acontecer. As réplicas cognitivas existem porque os originais disseram sim.
Mas o consentimento resolve apenas a versão fácil do problema. Três questões mais difíceis permanecem.
E quanto às figuras públicas não consentâneas? Character.AI, Estha e uma dúzia de outras plataformas de consumo já hospedam bots gerados por usuários imitando Elon Musk, Vitalik Buterin e figuras históricas como Einstein e Sócrates. A maioria é produzida sem permissão. O estado de Washington expandiu sua lei de direitos de personalidade em abril de 2026 para cobrir deepfakes gerados por IA. Nova York promulgou proteções semelhantes, inclusive para figuras falecidas. Os requisitos de transparência do Regulamento da IA da UE para conteúdo sintético entram em vigor em 2 de agosto de 2026. O regime jurídico para agentes de persona sem consentimento está se endurecendo rapidamente, mas a aplicação contra bots descentralizados feitos por fãs será uma luta longa e feia.
E quanto aos funcionários que não são Fred ou Balaji? Uma parcela crescente de trabalhadores de tecnologia está exigindo cláusulas contratuais que regulem o uso de sua voz, escrita e registros de decisão no treinamento de IA. Uma pesquisa da indústria de 2026 descobriu que aproximadamente 42 % dos trabalhadores de tecnologia queriam proteções explícitas de "imagem digital" antes de assinar ofertas. À medida que as empresas começam a ajustar agentes em mensagens internas do Slack, revisões de código e memorandos de design, a questão de quem possui a produção cognitiva de um funcionário — e se a empresa pode continuar a implantá-la após a saída desse funcionário — passa de teórica para operacional.
E quanto à evolução das visões da pessoa original? Um agente de persona é um snapshot. O verdadeiro Balaji Srinivasan em 2028 terá atualizado seu pensamento com base em novos dados; o agente Balaji no Slack da Coinbase não o fará, a menos que alguém o treine novamente. Com o tempo, o agente e a pessoa divergem — e o agente, incorporado na tomada de decisões diária, pode acabar tendo mais influência prática do que a pessoa na qual foi modelado.
Por que a Indústria Cripto Chegou Primeiro
Não é por acaso que a primeira implementação de alto perfil de agentes de persona em uma grande empresa esteja acontecendo na Coinbase, em vez de no Goldman Sachs ou na Microsoft.
A indústria cripto é extraordinariamente impulsionada por fundadores. As intuições de um pequeno conjunto de pensadores — Vitalik Buterin, Hayden Adams, Su Zhu antes de sua queda, Anatoly Yakovenko, as pessoas que construíram os primeiros protocolos — moldaram decisões de bilhões de dólares. Quando esses indivíduos saem, se distraem ou se recusam a opinar, as instituições que eles ajudaram a construir perdem uma espécie de bússola operacional. Capturar essa bússola como software é mais obviamente valioso em cripto do que em indústrias com processos de tomada de decisão mais difusos.
A cultura cripto também normaliza a experimentação radical com identidade e propriedade. A mesma indústria que nos deu fundadores pseudônimos, DAOs e capital social tokenizado sente-se confortável com a ideia de que o estilo cognitivo de uma pessoa pode ser um ativo negociável e implementável. O próprio Srinivasan passou anos argumentando que a criptografia e a internet permitem novas formas de "saída" — incluindo, implicitamente, a saída de sua própria presença física como o fator limitante de sua influência.
E, finalmente, as empresas cripto já são estruturalmente enxutas e voltadas para a IA. A reorganização da Coinbase em maio de 2026 — um organograma mais horizontal, mais de 15 subordinados diretos por líder, pods nativos de IA que podem ser um único humano direcionando uma constelação de agentes — é o ponto final natural de uma força de trabalho que já confiava mais no código do que na gerência intermediária. Agentes de persona se encaixam nessa cultura de uma forma que não se encaixariam em um banco de 200.000 pessoas.
O Cenário Competitivo: Delphi, Imbue e a Stack de Persona
A Coinbase não inventou os agentes de persona; ela os transformou em produto para o mercado corporativo. A stack tecnológica subjacente vem se formando há vários anos.
A Delphi.ai constrói "Mentes Digitais" para o consumidor desde 2023 — réplicas de voz e texto de especialistas ajustadas com precisão (fine-tuned), incorporadas em sites, Slack, WhatsApp e chamadas de voz. O fundador Dara Ladjevardian chamou 2026 de o ponto de inflexão para a adoção de mentes digitais, e a plataforma da empresa é estruturalmente semelhante ao que a Coinbase parece estar executando internamente.
A Imbue e outras empresas de agentes de voz têm trabalhado em conversação de personas em tempo real, onde um modelo fine-tuned não apenas escreve como a pessoa de origem, mas fala como ela, com o ritmo e a inflexão corretos.
A Character.AI domina o lado do consumidor, onde milhões de usuários conversam com bots de celebridades e figuras históricas criados por fãs.
A Replika ocupa um nicho diferente — agentes de companhia únicos e persistentes, sintonizados com um relacionamento em vez de uma pessoa específica.
O que há de novo na implementação da Coinbase é o contexto: não entretenimento para o consumidor, não produtividade pessoal, mas suporte à decisão empresarial no nível de estratégia sênior. Uma vez que esse padrão seja validado, cada empresa da Fortune 500 terá um movimento óbvio — trazer de volta o gêmeo cognitivo do seu fundador aposentado, do seu CTO que saiu, do seu líder de produto anterior mais influente.
As Implicações para o Mercado de Trabalho
Se os agentes de persona funcionarem, eles criarão uma nova classe de ativos.
Figuras públicas com marcas cognitivas fortes — investidores, fundadores, cientistas, escritores — licenciarão seus padrões de pensamento. Matthew McConaughey já registrou oito marcas federais em 2026 para proteger seu nome, imagem, voz e bordões contra o uso de IA. O próximo passo é o inverso: licenciar deliberadamente esses mesmos elementos como um serviço. Imagine uma assinatura SaaS onde qualquer empresa pode ativar um "agente Naval Ravikant" por US$ 50.000 por ano, treinado nos escritos de Naval e verificado por ele pessoalmente. A lógica econômica funciona porque o trabalho cognitivo ganha escala infinita uma vez capturado.
Para os trabalhadores do conhecimento comuns, as implicações são mais ambíguas. As mesmas técnicas de fine-tuning que transformam Fred Ehrsam em infraestrutura podem transformar um engenheiro sênior em infraestrutura. Os 14 % dos funcionários da Coinbase demitidos em maio de 2026 provavelmente contribuíram com milhares de memorandos, documentos de design e mensagens no Slack que agora são dados de treinamento. Se esses trabalhadores mantêm algum direito sobre a produção cognitiva de agentes treinados em seu trabalho é uma das questões trabalhistas centrais dos próximos cinco anos.
A resposta mais perspicaz é começar a tratar seus próprios logs de decisão como ativos compostos agora. Cada memorando que você escreve, cada podcast que grava, cada revisão de design de que participa é um dado potencial para fine-tuning — seja para um agente que você controla e licencia, ou para um que outra pessoa treina sem pedir. A assimetria desses dois resultados é a diferença entre ser dono de sua produção cognitiva ou alugá-la de volta da empresa que a capturou.
O Que Isso Significa para os Desenvolvedores Web3
Os fundadores da Web3 estão em uma interseção particular dessa tendência. O trabalho deles é excepcionalmente público — a maioria deles escreve em blogs, grava podcasts, tuíta e lança código abertamente. Isso os torna candidatos ideais para a captura por agentes de persona, por eles mesmos ou por outros. Isso também os posiciona bem para monetizar essa captura, caso ajam rapidamente.
Três movimentos concretos a considerar:
-
Arquive seu histórico de decisões deliberadamente. Se você estiver executando um protocolo ou uma empresa Web3, trate seus memorandos de design, postagens de governança e Slack interno como um registro de longo prazo do seu julgamento. Faça backup. Adicione tags. Torne-o consultável. A versão de você que existirá como software em 2030 será apenas tão boa quanto o corpus que você acumular agora.
-
Acompanhe a infraestrutura de licenciamento. Ferramentas que permitem que figuras públicas treinem, verifiquem e licenciem suas próprias mentes digitais — Delphi e a próxima geração de plataformas que competem com ela — estão se tornando o iTunes do trabalho cognitivo. Ser dono do seu fine-tune antes que outra pessoa treine o dela será importante.
-
Planeje a memória institucional em seu protocolo. As DAOs, em particular, são vulneráveis à perda do contexto do fundador — o que a equipe original queria dizer com uma decisão de governança específica, por que um parâmetro econômico específico foi definido daquela maneira. Um agente de persona bem treinado da equipe fundadora, implementado no Discord da DAO, é a resposta natural.
O Padrão Maior
O lançamento Fred-e-Balaji da Coinbase é apenas um ponto de dados isolado. Mas ele aponta para algo maior: um futuro mercado de trabalho para réplicas cognitivas, uma categoria de software empresarial na qual agentes de IA não apenas executam tarefas, mas incorporam o julgamento de indivíduos específicos e nomeados.
Nesse mundo, os ex-funcionários corporativos mais valiosos são aqueles cujos padrões de pensamento foram melhor capturados. Os funcionários mais valiosos são aqueles que possuem seus próprios fine-tunes. E as empresas mais valiosas são aquelas que descobrirem como montar equipes de humanos e agentes de persona que potencializam as forças uns dos outros.
A indústria de cripto — repleta de fundadores excepcionalmente influentes, confortável com a ideia de autopropriedade como um produto e que já opera de forma enxuta o suficiente para absorver o choque operacional — será onde este experimento acontecerá primeiro e com maior intensidade. A Coinbase deu o tiro de partida em 18 de abril. A corrida começou.
A BlockEden.xyz fornece infraestrutura confiável de RPC e indexação para desenvolvedores Web3 que constroem na Sui, Aptos, Ethereum, Solana e mais de 27 redes. À medida que a infraestrutura cognitiva se torna tão importante quanto a infraestrutura de computação, os alicerces sobre os quais você constrói ainda precisam ser de nível empresarial. Explore nosso marketplace de APIs para desenvolver sobre trilhos projetados para durar.
Fontes
- Coinbase testa agentes de IA modelados em ex-executivos 'lendários' — Decrypt
- Coinbase testa agentes de IA que oferecem feedback de alto nível para os funcionários — The Block
- 'Teremos mais agentes do que funcionários humanos', diz o CEO da Coinbase, Brian Armstrong — Yahoo Finance
- Coinbase não demitiu apenas 14% de sua equipe devido à IA — Fortune
- Coinbase reduz quadro de funcionários em 14% citando aceleração de IA — CNBC
- Balaji Srinivasan — Wikipédia
- Como as Mentes Digitais de IA da Delphi podem escalar a conexão humana — Sequoia Capital
- Apresentando o Slackbot, seu agente de IA consciente de contexto para o trabalho — Slack
- Estado de Washington expande lei de direitos de personalidade para cobrir deepfakes gerados por IA — Cooley
- Duas novas leis promulgadas em Nova York regularão certas imagens geradas por IA — Skadden