Monitorando a fronteira — Atualizado Março 2026
The Global South's Premier Behavioral AI Think Tank

Nós mapeamos a
arquitetura invisível
entre IA e cognição humana.

Em um mundo onde sistemas de inteligência artificial já reescrevem silenciosamente como bilhões de pessoas pensam, decidem e se comportam — alguém precisa estar olhando. Com rigor. Com método. Com independência. Nós somos esse lugar.

Acessar publicações →
Nossas linhas de pesquisa
Behavioral AI Cognitive Neuroscience Ethical AI Algorithmic Bias Human-AI Interaction Independent Research Global South Behavioral AI Cognitive Neuroscience Ethical AI Algorithmic Bias Human-AI Interaction Independent Research Global South
FMRP — Universidade de São Paulo
Harvard University
CNPq — MCTI
Peer-Reviewed Research
Manifesto

Bilhões de dólares são investidos anualmente em capacidade computacional, arquitetura de modelos e velocidade de inferência. O investimento proporcional na ciência do comportamento humano — no único sistema que esses modelos pretendem servir — é residual. Esse desequilíbrio não é apenas uma lacuna acadêmica. É um risco civilizatório. O HumanOS Institute existe para fechar essa lacuna — a partir do Sul Global, para o mundo.

Linhas de pesquisa
04
Fronteiras ativas entre cognição humana e IA
Eixos estratégicos
03
Pesquisa · Advisory · Formação executiva
Publicações / ano
52+
Blueprint Mental — newsletter semanal gratuita
Horizonte
2036
Visão de longo prazo para governança comportamental de IA

O que está em jogo agora.

Estas não são previsões. São dinâmicas que já estão em curso em março de 2026 — e que definirão a próxima década.

Crise ativa — 2026

Agentes autônomos estão tomando decisões sem supervisão cognitiva humana

Sistemas de IA agêntica já executam cadeias de decisão com centenas de passos sem intervenção humana. A lacuna entre capacidade técnica e compreensão comportamental cresce exponencialmente.

Crise ativa — 2026

A confiança cega em outputs de IA supera a confiança em especialistas humanos

A maioria dos usuários aceita respostas de IA sem verificação crítica — mesmo quando erros são demonstráveis. Os mecanismos neurais de confiança não evoluíram para interfaces algorítmicas.

Emergente — 2026–2030

Personalização extrema está fragmentando a realidade compartilhada

Feeds, assistentes e interfaces personalizadas por IA criam bolhas cognitivas cada vez mais impermeáveis. O custo não é apenas político — é neurológico.

Emergente — 2028–2036

O Sul Global será o maior laboratório involuntário de IA comportamental do planeta

Populações massivas, regulação incipiente e adoção acelerada de IA criam condições únicas. Sem pesquisa local independente, bilhões serão sujeitos de um experimento sem protocolo.

Eixos Estratégicos

Três eixos. Um propósito.

01
Pesquisa

Investigação Independente

Pesquisa original em neurociências cognitivas, viés algorítmico e interação humano-máquina. Publicada em periódicos com revisão por pares. Independência científica inegociável.

02
Advisory

Assessoria Estratégica

Para empresas, governos e instituições que precisam compreender o impacto comportamental de sistemas de IA antes que se torne crise. Traduzimos neurociência de fronteira em decisão executiva.

03
Formação

Programas Executivos

Neurociências, psicologia cognitiva e IA para quem toma decisões. Não ensinamos a usar IA — ensinamos a entender o que IA faz com as pessoas que a usam.

Visão de Longo Prazo

Horizonte 2036.

Em dez anos, a pergunta central não será se a IA é inteligente o suficiente. Será se nós somos capazes de entender o que ela faz conosco — com nossa atenção, nossa capacidade de decisão, nossa autonomia cognitiva e nossa coesão social.
  • 2026

    Consolidação das 4 linhas de pesquisa e publicação dos primeiros papers em periódicos internacionais.

  • 2027

    Primeiro programa de formação executiva em Behavioral AI para lideranças de tech, saúde e policy.

  • 2028

    Expansão do advisory para governos e reguladores do Sul Global com framework proprietário de impacto comportamental.

  • 2030

    Referência internacional em Behavioral AI Governance — presente nas mesas de decisão sobre regulação de IA no G20.

  • 2036

    O maior polo de pesquisa em Behavioral AI e Ethical AI do Sul Global — com rede de pesquisadores, dados proprietários e influência direta em política global.

"
A próxima grande fronteira da IA não é computacional. É comportamental. E o Brasil — com sua diversidade, sua complexidade social e sua produção científica de classe mundial — não vai assistir de fora. Vai liderar.
Dr. Gérson Silva Santos Neto
Fundador & Diretor Científico — HumanOS Institute
Blueprint Mental

Onde a fronteira é documentada.

Ver todas as publicações →
Fronteira
21 Mar 2026

O paradoxo da supervisão: por que humanos confiam mais em IA quando deveriam confiar menos

Ler →
Pesquisa
14 Mar 2026

Feedback loops algorítmicos e erosão da capacidade deliberativa

Ler →
Análise
7 Mar 2026

EU AI Act: o que a regulação europeia não endereça sobre impacto comportamental

Ler →

Neither will we.' data-es='La frontera no espera. Nosotros tampoco.' data-html="1">A fronteira não espera. Nós também não.

Se você é pesquisador, formulador de políticas, líder de tecnologia ou instituição que entende a urgência — há um lugar para você aqui.

Colabore com o instituto →
Assinar Blueprint Mental
Linhas de Pesquisa

Quatro fronteiras.
Um método.

Cada linha investiga uma dimensão crítica da relação entre cognição humana e inteligência artificial — com implicações diretas para política, regulação e design de sistemas.

Linha 01

Behavioral AI Foundations

Como modelos de linguagem e sistemas de recomendação modelam implicitamente o comportamento humano. A arquitetura técnica carrega premissas comportamentais que ninguém auditou. Cada escolha de design — do RLHF ao ranking de respostas — é uma intervenção comportamental não declarada. Nós a declaramos. E a medimos.

  • 01Mapeamento de nudges implícitos em interfaces de LLM
  • 02Análise de viéses comportamentais em outputs de modelos generativos
  • 03Frameworks de auditoria comportamental para sistemas de recomendação
  • 04Impacto de RLHF na modelagem implícita de preferências humanas
Linha 02

Cognitive Bias & AI Systems

Viéses cognitivos amplificados por IA e loops de retroalimentação entre erros humanos e algorítmicos. O ponto cego que nenhum benchmark de performance mede — e que nenhuma regulação atual endereça. Quando um sistema de IA confirma um viés que o usuário já tinha, ambos se fortalecem. Esse ciclo é invisível. E escalável.

  • 01Quantificação de amplificação de viés por sistemas de IA
  • 02Modelagem de feedback loops entre cognição humana e outputs algorítmicos
  • 03Protocolos de detecção de degradação decisória induzida por IA
Linha 03

Neuroscience of Human-AI Interaction

Como o cérebro humano processa, confia e se adapta a sistemas inteligentes. As bases neurais da confiança algorítmica — e por que nosso hardware biológico não foi projetado para essa interface. O córtex pré-frontal não distingue autoridade institucional de autoridade algorítmica. Essa confusão tem consequências.

  • 01Neuroimagem de padrões de confiança em interações com IA
  • 02Carga cognitiva e automação: quando delegar degrada a capacidade
  • 03Plasticidade neural e adaptação comportamental a interfaces de IA
Linha 04

Brazilian Cognition & AI

Como o contexto sociocultural brasileiro modula a interação com IA. O Brasil é uma amostra viva do futuro da IA em sociedades complexas — e a ciência comportamental brasileira tem a sofisticação para decodificá-lo. Multilinguismo funcional, desigualdade digital radical, adoção tech acelerada: as variáveis estão todas aqui.

  • 01Mapeamento de padrões cognitivos específicos na interação com IA no Brasil
  • 02Impacto da desigualdade digital na vulnerabilidade comportamental a IA
  • 03Frameworks de design de IA culturalmente informados para o Sul Global
Advisory

Assessoria estratégica
para quem decide.

Traduzimos neurociência de fronteira e ciência comportamental em inteligência acionável para empresas, governos e instituições que precisam navegar o impacto da IA antes que se torne crise.

Para quem

Quem precisa de advisory.

01
Empresas de Tecnologia

CTOs e CPOs que precisam entender como seus produtos afetam o comportamento dos usuários antes que reguladores ou a opinião pública façam isso por eles.

02
Governos & Reguladores

Formuladores de política pública que precisam de base científica real — não lobbying disfarçado de pesquisa — para regular o impacto comportamental de IA.

03
Instituições & ONGs

Organizações que operam na interseção de tecnologia e sociedade e precisam de rigor científico para fundamentar suas posições e intervenções.

Precisa de clareza sobre impacto comportamental?

Entre em contato para uma conversa inicial. Sem compromisso. Sem pitch de vendas.

Solicitar advisory →
Formação

Programas executivos em
Behavioral AI.

Não ensinamos a usar IA. Ensinamos a entender o que IA faz com as pessoas que a usam. Baseado em neurociências, psicologia cognitiva e ciência comportamental. Para quem toma decisões com evidência — não com hype.

Programas Previstos

O que vem a seguir.

I
Imersão — 40h

Behavioral AI para Lideranças

Como sistemas de IA afetam cognição, decisão e comportamento nas organizações. Para C-levels, VPs e diretores de tecnologia, produto e policy.

II
Certificação — 120h

Especialização em Ethical AI

Programa aprofundado cruzando neurociências, viés algorítmico e governança de IA. Para profissionais de compliance, ética e regulação.

III
Workshop — 8h

AI & Decisão: Workshop Intensivo

Sessão intensiva sobre como IA altera padrões de tomada de decisão. Hands-on com casos reais. Para equipes de produto, design e engenharia.

Interesse em formação?

Os primeiros programas estão previstos para 2027. Registre seu interesse para acesso prioritário.

Registrar interesse →
O Instituto

Pesquisa independente.
Rigor inegociável.

O HumanOS Institute reúne pesquisadores, neurocientistas, psicólogos e especialistas em IA para investigar o que acontece quando inteligência artificial encontra cognição humana. Fundado em 2025, operamos como think tank independente com base no Brasil.

Direção Científica
GSN
Fundador · HumanOS Institute

Dr. Gérson Silva Santos Neto

Fundador & Diretor Científico

PhD em Neurociências e Ciências do Comportamento pela FMRP-USP — uma das instituições de pesquisa em neurociências mais relevantes da América Latina. Colaborador do Cognitive Neuropsychology Lab da Harvard University. Pesquisador CNPq-MCTI. Uma carreira dedicada a investigar os mecanismos neurais da tomada de decisão — e a convicção de que, sem ciência comportamental rigorosa, a IA será construída sobre premissas humanas que ninguém testou.

PhD Neurociências — FMRP-USPHarvard UniversityCNPq-MCTICRP 06/116334
Princípios

O que é inegociável.

I

Independência científica

Nenhum financiador determina nossas conclusões. Nenhum parceiro influencia nossos achados. A integridade da pesquisa é a condição para qualquer colaboração.

II

Rigor metodológico

Publicação em periódicos com revisão por pares. Protocolos experimentais transparentes. Dados abertos sempre que possível. Ciência de verdade, não relatórios de consultoria.

III

Perspectiva do Sul Global

A conversa sobre IA e comportamento não pode ser monopolizada pelo Norte Global. O Brasil e a América Latina têm a diversidade, a complexidade e a ciência para mudar os termos do debate.

Colabore

A fronteira se constrói
em rede.

Se você é pesquisador, formulador de políticas, líder de tecnologia ou instituição que entende a urgência de estudar o impacto comportamental da IA — há um lugar para você aqui.

Entre em contato

Vamos conversar.

Toda colaboração é bem-vinda — desde que a integridade da pesquisa seja preservada.

Blueprint Mental

Onde a fronteira é
documentada.

Análises semanais sobre como a IA está remodelando o comportamento humano. Peer-reviewed mindset. Zero patrocinadores. Zero hype. Gratuito.

Gratuito · Sem spam · Cancele quando quiser · Receba cada nova publicação por e-mail
Edição Especial — Fronteira
21 Mar 2026 · 12 min

O paradoxo da supervisão: por que humanos confiam mais em IA quando deveriam confiar menos

Três estudos recentes revelam que a confiança humana em outputs de IA aumenta proporcionalmente à complexidade da tarefa — exatamente o oposto do que seria racional.

Ler análise completa →

Este é o tipo de problema que não aparece em benchmarks de performance. Aparece em salas de cirurgia, tribunais e mesas de trading. Quando um médico aceita uma sugestão diagnóstica de IA sem verificação adicional — não porque é preguiçoso, mas porque seu cérebro processa a interface como 'autoridade' — estamos diante de um fenômeno neurocientífico com consequências reais.

Pesquisa
14 Mar 2026 · 9 min

Feedback loops algorítmicos e erosão da capacidade deliberativa

Como sistemas de recomendação treinam o cérebro humano a operar no modo automático — e o que a neurociência diz sobre reverter esse processo.

Ler →
Análise
7 Mar 2026 · 11 min

EU AI Act: o que a regulação europeia não endereça sobre impacto comportamental

A regulação mais ambiciosa do mundo sobre IA tem um ponto cego significativo. Mapeamos as lacunas comportamentais que nenhum artigo cobre.

Ler →
Fronteira
28 Fev 2026 · 10 min

Agentes de IA e o colapso do 'decision fatigue'

Sistemas agênticos prometem eliminar a fadiga decisória. Mas a neurociência sugere que a capacidade de decidir é um músculo — e músculos não usados atrofiam.

Ler →
Opinião
21 Fev 2026 · 7 min

Por que o Sul Global precisa de sua própria ciência de IA comportamental

Ler →
Pesquisa
14 Fev 2026 · 8 min

Confiança algorítmica: o que o córtex pré-frontal não distingue

Ler →
Análise
7 Fev 2026 · 9 min

Deepfakes e erosão da confiança social: uma perspectiva neurocientífica

Ler →
← Voltar para publicações

Em janeiro de 2026, um estudo publicado no Journal of Experimental Psychology revelou um dado que deveria ter causado mais desconforto do que causou: quando a complexidade de uma tarefa aumenta, a confiança humana em outputs de IA não diminui proporcionalmente — ela aumenta.

Isso é contra-intuitivo. E é exatamente o tipo de fenômeno que o HumanOS Institute investiga.

O mecanismo por trás do paradoxo

O córtex pré-frontal humano, responsável pelo pensamento deliberativo e pela avaliação crítica, opera com recursos limitados. Quando a carga cognitiva aumenta — como acontece em tarefas complexas — a tendência natural do cérebro é buscar atalhos. Na psicologia cognitiva, chamamos isso de descarga heurística.

Historicamente, esses atalhos eram sociais: confiamos em especialistas, em instituições, em hierarquias. A IA agora ocupa esse espaço. Mas com uma diferença fundamental: ela não demonstra incerteza. A interface é assertiva. O output é limpo. A apresentação é confiante. E o cérebro humano interpreta assertividade como competência.

As implicações são sistêmicas

Este fenômeno não é um bug individual. É uma vulnerabilidade sistêmica que se manifesta em três domínios críticos:

  • Saúde: Médicos que aceitam sugestões diagnósticas de IA sem verificação adicional em casos de alta complexidade.
  • Justiça: Operadores do direito que utilizam IA para análise de risco sem compreender os viéses comportamentais embutidos nos modelos.
  • Finanças: Gestores que delegam análise de cenários complexos a IA sem auditar as premissas comportamentais.

O que fazemos com isso

O primeiro passo é medir. Não com surveys de satisfação do usuário, mas com neuroimagem funcional, protocolos experimentais rigorosos e modelagem comportamental. O segundo passo é traduzir esses achados em frameworks acionáveis.

Esse é o tipo de trabalho que o HumanOS Institute faz. Não é sobre ser contra a IA. É sobre garantir que entendemos o que a IA faz com as pessoas que a usam — antes que os custos sejam irreversíveis.

A questão não é se devemos confiar na IA. A questão é se entendemos por que confiamos — e se essa confiança é calibrada.

Se não é, temos trabalho a fazer. E estamos fazendo.

← Voltar para publicações

Cada vez que um sistema de recomendação entrega exatamente o que você quer — antes mesmo de você saber que quer —, algo sutil acontece no nível neural. O sistema 2 de Kahneman, responsável pelo pensamento lento e deliberativo, perde uma oportunidade de treino.

Isso parece inofensivo. Não é.

O mecanismo da erosão

O cérebro humano opera sob um princípio de economia energética. Processos que não são recrutados com frequência perdem eficiência. A deliberação — o ato de pesar alternativas, considerar consequências e resistir a impulsos — é um desses processos.

Quando um feed algorítmico elimina a necessidade de buscar, filtrar e avaliar informação, ele não está apenas sendo conveniente. Ele está treinando o cérebro a não deliberar. Com repetição suficiente, o padrão neural de "aceitar o output" se torna a configuração padrão.

Os dados são preocupantes

Estudos de neuroimagem funcional mostram que usuários intensivos de plataformas com personalização algorítmica apresentam menor ativação do córtex pré-frontal dorsolateral durante tarefas de tomada de decisão — mesmo offline. O efeito não fica contido na interface. Ele vaza para a vida.

O que significa para o design de IA

Se queremos sistemas de IA que respeitem a autonomia cognitiva humana, precisamos projetar interfaces que preservem — e até estimulem — a capacidade deliberativa. Isso não significa tornar tudo difícil. Significa tornar o fácil consciente.

A conveniência algorítmica tem um custo cognitivo. E esse custo é invisível até que a capacidade de decidir seja necessária — e não esteja mais lá.
← Voltar para publicações

O EU AI Act é, sem dúvida, a regulação mais ambiciosa do mundo sobre inteligência artificial. Sua classificação de risco, seus requisitos de transparência e sua estrutura de enforcement representam um avanço real. Mas há um ponto cego que precisa ser endereçado.

O que está faltando

A regulação europeia opera majoritariamente sobre riscos técnicos e éticos em sentido amplo. O que ela não faz — e precisa fazer — é endereçar riscos comportamentais específicos.

Isso não é uma omissão menor. É como regular automóveis sem medir emissões.

Três lacunas específicas

1. Sem métricas de impacto cognitivo. O AI Act classifica risco, mas não exige avaliação de impacto cognitivo.

2. Feedback loops não são endereçados. Sistemas de recomendação que criam loops de retroalimentação comportamental não têm tratamento regulatório específico.

3. Personalização extrema é um ponto cego. A granularidade crescente da personalização algorítmica cria interfaces únicas para cada usuário, dificultando auditoria.

O papel do Sul Global

Se a Europa está à frente na regulação técnica, o Sul Global tem a oportunidade de liderar na regulação comportamental.

Regular IA sem ciência comportamental é como tratar sintomas sem diagnóstico. Funciona até não funcionar mais.
← Voltar para publicações

A promessa é sedutora: agentes de IA que eliminam a fadiga decisória. Que filtram, priorizam e executam centenas de micro-decisões por dia para que você possa focar "no que importa". A indústria de tecnologia apresenta isso como evolução. A neurociência levanta uma bandeira vermelha.

O que a neurociência diz

A fadiga decisória é real. O córtex pré-frontal tem capacidade limitada de processamento deliberativo por dia. Isso está bem documentado. O que não está bem documentado é o custo cognitivo de longo prazo de eliminar a necessidade de decidir.

A capacidade de tomar decisões não é um recurso fixo — é uma habilidade treinável. Como qualquer habilidade, ela degrada com desuso.

O paradoxo da conveniência

Quanto mais conveniente o sistema, menos o cérebro delibera. Quanto menos delibera, menor a capacidade de deliberar quando necessário. A ferramenta projetada para melhorar decisões pode, no longo prazo, degradar a capacidade de decidir.

Implicações para design e regulação

A questão não é eliminar agentes de IA. É projetar agentes que preservem a agência humana. Que ofereçam assistência sem criar dependência.

A pergunta de 2036 não será "quão inteligente é sua IA". Será "quão capaz de decidir você ainda é".
← Voltar para publicações

Quando falamos de IA ética ou IA responsável, as referências são quase exclusivamente norte-americanas e europeias. Os frameworks, os datasets de viés, os protocolos de auditoria — tudo foi construído a partir de contextos socioculturais específicos. E isso é um problema.

O viés da universalidade

A psicologia cognitiva nos ensinou que processos cognitivos que pareciam universais são, na verdade, profundamente modulados por contexto cultural. O acrônimo WEIRD surgiu para sinalizar que a maior parte da pesquisa reflete uma fração minúscula da diversidade humana.

O mesmo vale para IA comportamental. Quando um sistema é treinado com dados de usuários norte-americanos, ele carrega viéses cognitivos — premissas sobre como pessoas tomam decisões e processam risco.

O Brasil como laboratório natural

210 milhões de pessoas com diversidade radical. Terceiro país do mundo em tempo em redes sociais. Tradição científica de referência em neurociências na América Latina. Essas são responsabilidades científicas.

A lacuna de representação

Menos de 3% dos papers sobre IA e comportamento incluem dados do Sul Global. Conclusões baseadas em 15% da humanidade não podem ser generalizadas para 100%.

A ciência comportamental de IA não pode ser importada. Precisa ser construída localmente. O HumanOS Institute existe para isso.
← Voltar para publicações

Existe um mecanismo neural que evoluiu ao longo de milhões de anos para nos ajudar a decidir em quem confiar. Ele funciona razoavelmente bem com outros humanos. Com interfaces de IA, ele falha de maneiras que ainda não compreendemos plenamente.

A neurociência da confiança

A confiança é processada em um circuito que envolve o córtex pré-frontal medial, a ínsula anterior e a amígdala. Interfaces de IA apresentam sinais que este circuito interpreta como confiabilidade, mas que são apenas características de design.

A confusão autoridade-interface

Participantes expostos a respostas de IA apresentaram padrões neurais indistinguíveis dos observados com especialistas humanos. O cérebro não distingue a fonte.

O que isso muda

Soluções baseadas em 'literacia digital' são insuficientes. Não se trata de ensinar a duvidar — trata-se de projetar interfaces que não ativem confiança desproporcional.

O problema não é que confiamos demais na IA. É que nosso cérebro não tem como saber que deveria confiar menos. A solução não é educação — é design.
← Voltar para publicações

O debate sobre deepfakes tem se concentrado em desinformação. Mas há um efeito mais destrutivo no longo prazo: a erosão da confiança social.

O paradoxo do cético universal

Quando deepfakes se tornam comuns, as pessoas não verificam mais — duvidam de tudo. É o 'dividendo do mentiroso': qualquer vídeo verdadeiro pode ser negado. O cérebro opera com viés de veracidade — sem ele, comunicação social seria impossível.

O custo cognitivo da desconfiança

O resultado é exaustão epistêmica ou cinismo epistêmico. Nenhuma das duas é funcional para uma democracia.

O que a neurociência sugere

Soluções tecnológicas são necessárias mas insuficientes. Precisamos projetar ecossistemas de informação que restaurem confiança calibrada.

Deepfakes não destroem a verdade. Destroem a capacidade de confiar que a verdade existe. E essa é uma perda muito mais difícil de reparar.
Equipe & Colaboradores

Quem constrói
o HumanOS.

Uma rede crescente de pesquisadores, neurocientistas, psicólogos e especialistas em IA comprometidos com entender o impacto comportamental da inteligência artificial.

Direção

Liderança científica.

GSN
Dr. Gérson Silva Santos Neto
Fundador & Diretor Científico

PhD em Neurociências e Ciências do Comportamento (FMRP-USP). Colaborador do Cognitive Neuropsychology Lab, Harvard University. Pesquisador CNPq-MCTI.


Posição aberta

Estamos buscando pesquisadores.
Entre em contato.

Posição aberta

Junte-se à fronteira da Behavioral AI.
Conselho Consultivo

Em formação.

O conselho consultivo está sendo estruturado com pesquisadores e líderes de referência em neurociências, IA e políticas públicas.

Manifeste interesse →
Tipos de Parceria

Colaborações ativas.

Pesquisa Conjunta
Universidades & Centros de Pesquisa

Co-autoria de papers, compartilhamento de dados e programas de intercâmbio de pesquisadores.

Advisory Corporativo
Empresas de Tecnologia

Assessoria sobre impacto comportamental de produtos de IA. Auditoria de viéses. Frameworks de design ético.

Policy
Governos & Reguladores

Base científica para regulação de IA comportamental. Consultoria técnica para políticas públicas.

Financiamento
Fundações & Organizações

Apoio a linhas de pesquisa. Independência científica inegociável — nenhum financiador determina conclusões.