PT | EN

Model Context Protocol: insights e tendências do TDC Summit IA 2025

Por e 09/04/2025 09/04/2025 7 minutos

Recentemente, uma sigla começou a circular com força entre especialistas em Inteligência Artificial: Model Context Protocol (MCP). Embora ainda seja um conceito emergente, seu impacto já é evidente — tanto que dominou boa parte das discussões no TDC Summit IA São Paulo 2025.

Com uma programação robusta, o evento reuniu profissionais, pesquisadores e empresas na vanguarda da tecnologia para explorar fundamentos, mas também os desafios práticos da implementação de LLMs.

Temas como Retrieval Augmented Generation (RAG), uso de Agentes Autônomos e Tool Calling ganharam destaque. Isso demostra como essas abordagens estão sendo aplicadas para ampliar a eficiência, controle e capacidade de adaptação dos modelos.

Neste artigo, reunimos insights essenciais sobre segurança com guardrails, adoção de padrões como o MCP, e exemplos práticos de como essas tecnologias estão sendo aplicadas em larga escala por empresas líderes do setor.

MCP: Model Context Protocol

O tema mais emergente do TDC Summit IA foi, sem dúvida, o MCP. Tão recente que muitos palestrantes precisaram adaptar suas apresentações de última hora para incluí-lo.

O Model Context Protocol é um protocolo aberto que padroniza a forma como os aplicativos fornecem contexto para LLMs. Ele foi desenvolvido com o objetivo de facilitar a integração e a interoperabilidade entre modelos de linguagem e diferentes aplicações. Ou seja, o MCP promove um fluxo de informações mais eficiente e estruturado.

Uma das principais vantagens do MCP é a redução da necessidade de implementações customizadas para cada aplicação. Ao oferecer uma forma padronizada de fornecer contexto relevante, ele melhora a precisão das respostas dos modelos e acelera a adoção de LLMs em diversas plataformas e setores.

Durante o TDC deste ano ficou evidente o grande interesse pelo protocolo. Esse movimento é um sinal claro de que essa abordagem tem tudo para ganhar tração nos próximos meses e se consolidar como uma solução amplamente adotada no ecossistema de Inteligência Artificial.

“Esse tema é realmente bem recente. A OpenAI implementou suporte ao MCP em março deste ano, e os palestrantes estavam adicionando esse tópico em suas apresentações no próprio dia do evento”. (Jonatan Compiani, Software Engineer Backend na SoftDesign).

Segurança, confiança e guardrails

Outro pilar essencial no uso de IA em ambientes corporativos é a segurança. Por isso, tem-se intensificado o debate sobre como mitigar vulnerabilidades, como ataques de jailbreak, minimizar imprecisões nas respostas e, principalmente, assegurar a confiabilidade das aplicações baseadas em modelos de linguagem.

Nesse sentido, Guardrails surgem como um dos conceitos-chave para aumentar a robustez e a segurança nas soluções de IA. Diversas palestras apresentaram implementações práticas de camadas de segurança baseadas em Guardrails. Muitas delas utilizando arquiteturas de multiagentes para validar tanto as entradas quanto as saídas das LLMs.

Um exemplo concreto e inspirador veio da IBM, que apresentou a nova geração da sua família de modelos de linguagem, chamada Granite. Esses modelos são de código aberto, licenciados sob Apache, ou seja, totalmente gratuitos para uso e customização.

Entre os destaques da linha Granite, no que diz respeito à segurança, está o Granite Guardian — um modelo projetado especificamente para atuar como uma camada de proteção. Ele funciona como um agente que intercepta as chamadas feitas pelos usuários antes que cheguem à LLM principal, avaliando e filtrando conteúdos potencialmente perigosos, como instruções de violência, injeções de código ou tentativas de jailbreak.

Além da eficácia, o Granite Guardian se diferencia por sua leveza e velocidade, operando de forma mais eficiente que uma LLM tradicional. Outro ponto forte é a possibilidade de execução em ambientes internos.

Isso reduz significativamente o risco de vazamento de dados sensíveis — uma vantagem estratégica para empresas que priorizam segurança e privacidade.

Temas em destaque no universo da IA

Além dos assuntos centrais, o TDC Summit IA, realizado em São Paulo, também destacou uma variedade de tópicos que refletem a maturidade e a diversificação do ecossistema de IA em 2025.

Machine Learning

Diferente da edição anterior, o número de palestras focadas em Machine Learning aumentou significativamente, com destaque para aplicações no setor financeiro.

“Neste ano, nos workshops, foi possível trocar conhecimento com os palestrantes sobre algoritmos específicos para esse mercado. A troca prática de experiências mostrou o quanto o ML está se consolidando como ferramenta estratégica em ambientes altamente regulados e orientados por dados”. (Felipe Bastos, Software Engineer Full Stack JS na SoftDesign).

Visão Computacional

A evolução da visão computacional também ganhou espaço nas discussões, especialmente ao demonstrar como essa tecnologia avançou nos últimos anos.

Foram apresentados exemplos de aplicações, como em carros autônomos, que integram dados de câmeras com sensores como RADAR (radio detecting and ranging) e LIDAR (light detection and ranging) para maior robustez.

No Agronegócio, casos de uso incluem o mapeamento autônomo da produtividade das lavouras e a detecção precoce de pragas — mostrando o potencial da tecnologia para transformar setores diversos.

LLMs no desenvolvimento de software

Outro destaque foi o uso crescente de LLMs no processo de desenvolvimento de software. Se no ano passado os CoPilots já eram tendência, este ano observou-se um avanço para soluções mais personalizadas, voltadas à automação e validação de artefatos como histórias de usuário e outros documentos técnicos.

“Me chamaram atenção essas ideias porque temos nosso assistente interno na SoftDesign implementando tarefas similares. Isso mostra que estamos no caminho certo”. (Felipe Bastos).

Buffer of Thoughts

Fechando a lista, uma das abordagens mais avançadas em raciocínio com LLMs apresentada foi a Buffer of Thoughts. Essa técnica state-of-the-art combina buffers temporários de informação com templates de pensamento, permitindo resultados mais precisos, coerentes e relevantes.

Trata-se de uma evolução importante no uso de LLMs, especialmente em tarefas que exigem múltiplos passos de raciocínio ou tomada de decisão contextualizada.

IA no centro das transformações

Mais uma vez, o TDC Summit São Paulo consolidou-se como o principal evento do Brasil para profissionais e entusiastas focados na implementação de Inteligência Artificial.

Com uma programação imponente, o evento se destacou pelas palestras de alto nível e casos de aplicação — que trouxeram uma abordagem prática e acessível às tecnologias emergentes.

Além disso, os workshops, conduzidos por especialistas do setor, ofereceram uma experiência hands-on que permitiu aos participantes ir além da teoria e experimentar, na prática, como aplicar as inovações discutidas ao longo do evento.

Felipe Bastos e Jonatan Compiani.

Grandes empresas como Google, Microsoft, Nvidia, Dell e Bradesco marcaram presença com estandes, talks e painéis técnicos, compartilhando suas estratégias e visões de futuro para a IA. Essa presença reforça o peso crescente da Inteligência Artificial como diferencial competitivo nas mais diversas indústrias.

Em suma, a IA já não é mais uma promessa distante — é realidade, tendência e necessidade. Além disso, o evento não apenas destacou as inovações em curso, mas também trouxe um olhar crítico para os desafios que ainda precisam ser enfrentados: segurança, governança, confiabilidade e ética.

Ou seja, mais do que nunca, a IA está no centro das discussões sobre tecnologia, negócios e sociedade. Precisa de ajuda para navegar por esse cenário e impulsionar a inovação efetiva na sua empresa? Entre em contato com nossos especialistas!

Vamos conversar?

Entre em contato e vamos conversar sobre seus desafios de TI.

Perguntas frequentes sobre Model Context Protocol

Agora, confira algumas respostas rápidas para as principais perguntas sobre o tema.

O que é o Model Context Protocol (MCP)?

O Model Context Protocol (MCP) é um protocolo aberto. Ele padroniza como aplicativos fornecem contexto para LLMs, facilitando a integração, a interoperabilidade e a precisão nas respostas.

Qual o impacto do MCP em IA?

O MCP aumenta a eficiência e a confiabilidade das aplicações de IA ao padronizar o fornecimento de contexto para LLMs, acelerando a adoção em larga escala.

Qual o impacto do MCP em LLMs?

O MCP melhora o desempenho das LLMs ao fornecer contexto de forma padronizada, ou seja, torna as respostas mais precisas, relevantes e seguras em diferentes aplicações.

Por fim, acesse também:

Foto do autor

Jonatan Compiani

Jonatan Compiani é Software Engineer Backend na SoftDesign, formado em Ciência da Computação e com mais de dez anos de experiência como engenheiro de software. Ao longo de sua carreira, trabalhou com .NET, C#, SQL Server e Angular. Nos últimos anos, tem se dedicado ao estudo e aplicação de Inteligência Artificial e Modelos de Linguagem (LLMs), buscando formas de tornar o desenvolvimento de software mais inteligente e eficiente. Apaixonado por aprendizado, resolução de problemas e inovação, gosta de colaborar na criação de soluções tecnológicas de impacto.

Posts relacionados

Receba conteúdos sobre inovação e tecnologia.

Deixe seu email para se inscrever em nossa newsletter.