O que aprendi criando experiências em um produto de IA generativa
Lições reais sobre comportamento, expectativas e design na era da IA generativa.Atuando como Product Designer em um produto centrado em IA generativa, tenho acompanhado de perto os desafios de projetar experiências que envolvem a interação entre pessoas e modelos de linguagem. Mais do que uma tecnologia inovadora, a IA exige novas abordagens de design, especialmente quando aplicada em contextos complexos como o setor jurídico.Meu foco tem sido compreender os aspectos psicológicos e comportamentais que emergem quando usuários interagem com sistemas de IA: Como constroem confiança, lidam com erros, ajustam expectativas e incorporam a ferramenta ao seu dia a dia.Embora o recorte do produto esteja no universo jurídico, muitos dos padrões observados têm potencial de se repetir em outros contextos, onde a IA atua como agente de suporte ou automação.Neste artigo, compartilho alguns dos principais aprendizados acumulados ao longo dessa jornada.1. A distância entre expectativa e realidade em relação à IA ainda é grandeEmbora a inteligência artificial esteja no centro das discussões sobre o futuro da tecnologia, a maioria das pessoas ainda tem uma compreensão limitada e muitas vezes idealizada do que um modelo de linguagem realmente é capaz de fazer.Parece comum que usuários esperem respostas perfeitas mesmo a partir de comandos mal formulados.Muitos acreditam que a IA consegue entender contextos complexos sem qualquer informação adicional ou realizar tarefas altamente especializadas com pouquíssimo input. Quando essas expectativas não se confirmam, a frustração aparece.Esse descompasso exige atenção especial no design do produto. É preciso encontrar um equilíbrio delicado entre empolgar e educar, criando experiências que encantam, mas sem prometer o que a tecnologia ainda não pode entregar.Projetar nesse cenário é também gerenciar expectativas de forma clara e responsável.2. A dificuldade de transformar intenção em comandoBoa parte das interações com modelos de linguagem se baseia em comandos vagos, como “melhore isso” ou “reescreva”. Esses pedidos, embora comuns, não fornecem contexto suficiente para que a IA entregue algo realmente útil. Isso revela uma lacuna importante: a maioria dos usuários não entende como a IA processa linguagem, e muito menos conhece os princípios de um bom prompt.Essa dificuldade de comunicação não é apenas técnica, mas também cognitiva. Muitos usuários sequer têm clareza do que desejam de fato, e projetam na IA a expectativa de descobrir isso por eles. Quando o resultado vem desalinhado, a confiança no sistema é abalada, mesmo que o problema tenha começado no input.Projetar para IA exige criar um ambiente onde o usuário possa se expressar com mais clareza, mesmo sem saber exatamente como fazer isso.Como bem observou Michael Carbin (MIT Technology Review Insights, 2023), professor do MIT:A grande revolução da IA generativa está em permitir que possamos traduzir linguagem humana para algo que uma máquina consiga interpretar.Esse salto muda o jogo do design: projetar boas experiências deixa de ser apenas uma questão de interface e passa a ser uma questão de linguagem, intenção e cognição, com implicações profundas sobre a forma como nos relacionamos com sistemas inteligentes.3. A imprevisibilidade das LLMs faz parte do jogoUma das primeiras coisas que se aprende ao usar modelos de linguagem é que eles não seguem uma lógica determinística. Você pode dar o mesmo input várias vezes e receber respostas completamente diferentes. O mesmo vale para quem está construindo o sistema.Mesmo após ajustes nas regras, refinamento de prompts ou reconfiguração do modelo, erros que pareciam resolvidos podem voltar a acontecer.Essa imprevisibilidade faz parte da natureza das LLMs e, em muitos contextos, pode ser administrada com alguma margem de tolerância. Mas ela também alimenta um receio recorrente entre os usuários: o medo de que a IA alucine e entregue informações erradas com confiança. Essa percepção é especialmente sensível em ambientes onde credibilidade e precisão são inegociáveis, como no meio jurídico. Nesses casos, a insegurança com o comportamento da IA pode afetar diretamente a confiança no produto, mesmo que tecnicamente ele esteja funcionando dentro dos limites esperados.Esse tipo de cenário exige um novo grau de maturidade por parte do time de produto:Não basta criar regras e esperar que elas sejam seguidas. É preciso desenhar sistemas que abracem a incerteza, com espaço para testes, correções e iteração constante.Mais do que controlar, o desafio está em orquestrar.Trabalhar com IA generativa é aprender a lidar com algo que você não domina completamente, mas que pode gerar valor real quando o ritmo entre produto, usuário e modelo está em sintonia.4. ChatGPT como referência invisível de experiênciaPara muitos usuários, o primeiro contato com a IA acontece por meio de interfaces como a do ChatGPT, Gemini ou DeepSeek. Essas experiências de diálogo aberto moldam como as pessoas passam a entend

Lições reais sobre comportamento, expectativas e design na era da IA generativa.

Atuando como Product Designer em um produto centrado em IA generativa, tenho acompanhado de perto os desafios de projetar experiências que envolvem a interação entre pessoas e modelos de linguagem. Mais do que uma tecnologia inovadora, a IA exige novas abordagens de design, especialmente quando aplicada em contextos complexos como o setor jurídico.
Meu foco tem sido compreender os aspectos psicológicos e comportamentais que emergem quando usuários interagem com sistemas de IA: Como constroem confiança, lidam com erros, ajustam expectativas e incorporam a ferramenta ao seu dia a dia.
Embora o recorte do produto esteja no universo jurídico, muitos dos padrões observados têm potencial de se repetir em outros contextos, onde a IA atua como agente de suporte ou automação.
Neste artigo, compartilho alguns dos principais aprendizados acumulados ao longo dessa jornada.
1. A distância entre expectativa e realidade em relação à IA ainda é grande
Embora a inteligência artificial esteja no centro das discussões sobre o futuro da tecnologia, a maioria das pessoas ainda tem uma compreensão limitada e muitas vezes idealizada do que um modelo de linguagem realmente é capaz de fazer.
Parece comum que usuários esperem respostas perfeitas mesmo a partir de comandos mal formulados.
Muitos acreditam que a IA consegue entender contextos complexos sem qualquer informação adicional ou realizar tarefas altamente especializadas com pouquíssimo input. Quando essas expectativas não se confirmam, a frustração aparece.
Esse descompasso exige atenção especial no design do produto. É preciso encontrar um equilíbrio delicado entre empolgar e educar, criando experiências que encantam, mas sem prometer o que a tecnologia ainda não pode entregar.
Projetar nesse cenário é também gerenciar expectativas de forma clara e responsável.
2. A dificuldade de transformar intenção em comando
Boa parte das interações com modelos de linguagem se baseia em comandos vagos, como “melhore isso” ou “reescreva”. Esses pedidos, embora comuns, não fornecem contexto suficiente para que a IA entregue algo realmente útil. Isso revela uma lacuna importante: a maioria dos usuários não entende como a IA processa linguagem, e muito menos conhece os princípios de um bom prompt.
Essa dificuldade de comunicação não é apenas técnica, mas também cognitiva. Muitos usuários sequer têm clareza do que desejam de fato, e projetam na IA a expectativa de descobrir isso por eles. Quando o resultado vem desalinhado, a confiança no sistema é abalada, mesmo que o problema tenha começado no input.
Projetar para IA exige criar um ambiente onde o usuário possa se expressar com mais clareza, mesmo sem saber exatamente como fazer isso.
Como bem observou Michael Carbin (MIT Technology Review Insights, 2023), professor do MIT:
A grande revolução da IA generativa está em permitir que possamos traduzir linguagem humana para algo que uma máquina consiga interpretar.
Esse salto muda o jogo do design: projetar boas experiências deixa de ser apenas uma questão de interface e passa a ser uma questão de linguagem, intenção e cognição, com implicações profundas sobre a forma como nos relacionamos com sistemas inteligentes.
3. A imprevisibilidade das LLMs faz parte do jogo
Uma das primeiras coisas que se aprende ao usar modelos de linguagem é que eles não seguem uma lógica determinística. Você pode dar o mesmo input várias vezes e receber respostas completamente diferentes. O mesmo vale para quem está construindo o sistema.
Mesmo após ajustes nas regras, refinamento de prompts ou reconfiguração do modelo, erros que pareciam resolvidos podem voltar a acontecer.
Essa imprevisibilidade faz parte da natureza das LLMs e, em muitos contextos, pode ser administrada com alguma margem de tolerância. Mas ela também alimenta um receio recorrente entre os usuários: o medo de que a IA alucine e entregue informações erradas com confiança. Essa percepção é especialmente sensível em ambientes onde credibilidade e precisão são inegociáveis, como no meio jurídico. Nesses casos, a insegurança com o comportamento da IA pode afetar diretamente a confiança no produto, mesmo que tecnicamente ele esteja funcionando dentro dos limites esperados.
Esse tipo de cenário exige um novo grau de maturidade por parte do time de produto:
Não basta criar regras e esperar que elas sejam seguidas. É preciso desenhar sistemas que abracem a incerteza, com espaço para testes, correções e iteração constante.
Mais do que controlar, o desafio está em orquestrar.
Trabalhar com IA generativa é aprender a lidar com algo que você não domina completamente, mas que pode gerar valor real quando o ritmo entre produto, usuário e modelo está em sintonia.
4. ChatGPT como referência invisível de experiência
Para muitos usuários, o primeiro contato com a IA acontece por meio de interfaces como a do ChatGPT, Gemini ou DeepSeek. Essas experiências de diálogo aberto moldam como as pessoas passam a entender o que é e como deve funcionar um produto baseado em inteligência artificial.
Mesmo que inconscientemente, esse repertório vira um ponto de comparação. Produtos que não seguem a lógica do chat aberto, com total liberdade de input, precisam lidar com uma expectativa herdada dessas interações.
Quando um produto propõe fluxos mais guiados, limites de entrada ou saídas mais estruturadas, ele precisa ser impecável em outros aspectos, como oferecer clareza na proposta, respostas rápidas, boas opções de edição e, acima de tudo, transmitir ao usuário um senso de controle para que a experiência se sustente.
O desafio é grande porque não estamos apenas projetando para um usuário que está aprendendo sobre IA, mas para um usuário que já aprendeu a esperar um certo tipo de liberdade, mesmo que isso nem sempre seja o melhor caminho para o contexto em questão.
É fundamental dosar a autonomia da IA com a capacidade do usuário de intervir nas decisões, criando uma interação que seja ao mesmo tempo inteligente e controlável.
5. IA e o “crédito emocional” do aprendizado imaginado
Muitos usuários acreditam que, com o tempo, a IA vai aprendendo com as suas preferências e comportamentos. Essa expectativa, muitas vezes trazida de experiências com outros modelos (como citado acima), cria a sensação de que o sistema está sendo treinado individualmente por eles.
Essa percepção muda completamente como a experiência é vivida. Ao contrário das interfaces digitais tradicionais, que muitas vezes são julgadas de forma definitiva logo no primeiro uso, produtos com IA podem ganhar uma espécie de “crédito emocional”. O usuário pode tender a ser mais tolerante com erros, acreditando que a IA está aprendendo com eles e que os resultados irão melhorar com o tempo.
Esse efeito pode ser benéfico, já que abre espaço para iteração e evolução da experiência. Mas também carrega um risco: quando a IA repete um erro que o usuário já esperava superado, a frustração pode ser ainda maior, justamente por trair essa expectativa de progresso.
Entender esse comportamento é essencial. Em alguns casos, vale abraçar essa expectativa e criar mecanismos que deem a sensação de personalização. Em outros, é preciso alinhar claramente o que o sistema é ou não capaz de fazer, evitando que a experiência se baseie em uma expectativa que o sistema nunca se propôs a cumprir.
6. O medo como motor da adoção da IA
Grande parte dos usuários que adere a produtos com inteligência artificial o faz não por convicção, mas por medo de “ficar para trás”, sentimento amplamente conhecido como FOMO, sigla em inglês para “fear of missing out”. Existe uma pressão, muitas vezes silenciosa, para se inteirar de uma tecnologia que promete transformar setores inteiros, e isso cria um movimento de adesão mais reativo do que consciente.
No universo jurídico, esse cenário é especialmente evidente. Os profissionais sentem a necessidade de se atualizar, mas reagem de formas muito diferentes a essa urgência. Alguns encaram a mudança como parte natural da evolução do trabalho e se abrem para aprender e experimentar. Outros, por outro lado, demonstram mais resistência, seja por insegurança ou por uma visão mais conservadora da própria profissão.
Essa diferença de postura impacta diretamente na experiência com o produto. Para quem chega com abertura, os erros e limitações da IA são vistos como parte do processo. Para quem chega com desconfiança, qualquer falha reforça a ideia de que a tecnologia é pouco confiável ou ameaça sua autoridade.
É por isso que segurança, clareza e educação precisam estar no centro da experiência. A IA não deve ser apresentada como substituta, mas como uma ferramenta de apoio. O papel do produto, nesse contexto, é acolher diferentes níveis de maturidade digital e criar caminhos acessíveis para que todos possam extrair valor da tecnologia.
O desafio é grande, mas é impossível não se empolgar com o futuro do design de produtos. A IA abriu um campo riquíssimo para criar experiências mais contextuais e alinhadas às necessidades específicas de cada usuário. E é justamente nesse cenário que vejo uma das maiores oportunidades para quem projeta produtos: criar soluções que realmente façam sentido, independentemente das particularidades de cada uso.
Referência
O que aprendi criando experiências em um produto de IA generativa was originally published in UX Collective