Nunca fui grande fã do que as pessoas hoje em dia chamam de codificação vibe. Para mim, codificar sempre foi sobre ser claro, estruturado e intencional — não apenas juntar algo porque alguma IA sugeriu. Mas a tecnologia avança rápido, e se não acompanhares, ficas para trás. Então, em vez de lutar contra isso, escolhi mergulhar e ver do que esta onda se tratava. Comecei a olhar para como a IA poderia ser mais do que uma ajudante; poderia realmente ser uma parceira na criação de software melhor. Foi assim que acabei profundamente no mundo da codificação generativa com IA, ou codificação vibe como as pessoas chamam casualmente.\n\nUma das maiores dores de cabeça ao trabalhar com ferramentas de IA é descobrir como comunicar corretamente. As máquinas não entendem código como os humanos; elas captam padrões, contexto e estrutura de forma diferente. Então, comecei a trabalhar numa interface de linha de comando (CLI) que gera especificações de forma legível por máquina. Isto ajuda desenvolvedores e modelos de IA a literalmente falarem a mesma língua. A CLI conecta-se a vários fornecedores de IA para produzir documentos de especificação consistentes e detalhados. Pensa nela como um tradutor que transforma ideias humanas em instruções estruturadas que as máquinas conseguem realmente processar.\n\nO objetivo desta ferramenta não é substituir os desenvolvedores. É garantir que, quando a IA está envolvida, os resultados sejam previsíveis, explicáveis e de alta qualidade. A CLI pode gerar especificações em JSON, YAML ou num novo formato que chamo TOON — Token Object Oriented Notation. O TOON foi desenhado para ser amigável tanto para humanos como para máquinas, facilitando a leitura e o trabalho com ele.\n\nO que é fixe no TOON é como mistura análise heurística com refinamento por IA. Esta abordagem híbrida equilibra velocidade e precisão. Além disso, há um modo assistente interativo para quando a IA não está disponível, para que possas guiar a geração da especificação manualmente. Suporta múltiplos fornecedores de IA como OpenAI, Anthropic Claude, OpenRouter e GLM (ZhipuAI), dando flexibilidade aos utilizadores conforme as suas necessidades.\n\nPara otimizar a eficiência, usa cache inteligente com um sistema LRU (Least Recently Used) para reduzir chamadas desnecessárias à API. A configuração pode ser feita através de variáveis de ambiente, ficheiros .env ou ficheiros de configuração, facilitando a integração em diferentes fluxos de trabalho. Inclui também validação incorporada que verifica as especificações contra esquemas para evitar erros logo no início.\n\nEstamos a entrar numa era em que a forma como escrevemos código é menos importante do que a forma como descrevemos o que queremos. Se conseguirmos que as máquinas realmente entendam a nossa intenção, é aí que começa a verdadeira colaboração entre humanos e IA. Esta ferramenta é um passo para esse futuro, ajudando a colmatar a lacuna entre a clareza humana e a precisão da máquina.