IA já pode indicar como animais estão se sentindo

  • 07/09/2025
(Foto: Reprodução)
Gato e cachorro Andrew S/Unsplash Como um animal está se sentindo em um dado momento? Os seres humanos há muito reconhecem certos comportamentos, como o chiado de um gato, como um alerta, mas em muitos casos temos pouca ideia do que se passa na cabeça de um animal. Agora temos uma ideia melhor, graças a um pesquisador de Milão que desenvolveu um modelo de IA que, segundo ele, pode detectar se os sons emitidos pelos animais expressam emoções positivas ou negativas. O modelo de aprendizado profundo de Stavros Ntalampiras, publicado na revista científica Scientific Reports, é capaz de reconhecer tons emocionais em sete espécies de animais com cascos, incluindo porcos, cabras e vacas. O modelo capta características comuns dos sons emitidos por esses animais, como tom, faixa de frequência e qualidade tonal. 📱 Baixe o app do g1 para ver notícias em tempo real e de graça A análise mostrou que os chamados negativos tendiam a ter frequências mais médias a altas, enquanto os chamados positivos se espalhavam de maneira mais uniforme pelo espectro. Nos porcos, os chamados agudos eram especialmente informativos, enquanto nas ovelhas e nos cavalos os chamados médios tinham mais peso, um sinal de que os animais compartilham alguns marcadores comuns de emoção, mas também os expressam de maneiras que variam de acordo com a espécie. Para os cientistas que há muito tentam desvendar os sinais dos animais, essa descoberta de traços emocionais comuns entre espécies é o mais recente avanço em um campo que está sendo transformado pela IA. As implicações são de longo alcance. Agricultores poderiam receber alertas mais precoces sobre o estresse do gado, conservacionistas poderiam monitorar remotamente a saúde emocional de populações selvagens, e tratadores de zoológicos poderiam responder mais rapidamente a mudanças sutis no bem-estar dos animais. Esse potencial para uma nova camada de insights sobre o mundo animal também levanta questões éticas. Se um algoritmo pode detectar com confiabilidade quando um animal está em perigo, qual é a responsabilidade dos humanos de agir? E como nos protegemos contra a generalização excessiva, em que presumimos que todos os sinais de excitação significam a mesma coisa em todas as espécies? Leia também: Data center: entenda como ele funciona por que consome tanta energia e água 🚀 SpaceX quer abastecer Starship com nave reserva no espaço Gato de quase 48 cm entra para o 'Guinness' como mais alto do mundo De latidos e zumbidos Ferramentas como a criada por Ntalampiras não estão sendo treinadas para “traduzir” os animais no sentido humano, mas para detectar padrões comportamentais e acústicos muito sutis para serem percebidos sem ajuda. Um trabalho semelhante está sendo realizado com baleias, em que a Project Ceti (sigla em inglês para “Iniciativa de Tradução de Cetáceos”), organização de pesquisa sediada em Nova York, está analisando sequências padronizadas de cliques chamadas codas. Há muito tempo acreditava-se que estas sequências codificavam significados sociais, mas agora elas estão sendo mapeadas em larga escala usando aprendizado de máquina, revelando padrões que podem corresponder à identidade, afiliação ou estado emocional de cada baleia. Em cães, pesquisadores estão relacionando expressões faciais, vocalizações e padrões de abanar o rabo com estados emocionais. Um estudo mostrou que mudanças sutis nos músculos faciais caninos correspondem a medo ou excitação. Outro descobriu que a direção do abanar da cauda varia dependendo se o cão encontra um amigo conhecido ou uma ameaça potencial. Cachorro brincando Unsplash/Andy Powell No Insight Centre for Data Analytics da Dublin City University, estamos desenvolvendo uma coleira de detecção usada por cães de assistência treinados para reconhecer o início de uma convulsão em pessoas que sofrem de epilepsia. A coleira usa sensores para captar comportamentos treinados do cão, como girar, que acionam o alarme de que seu dono está prestes a ter uma convulsão. O projeto, financiado pela Research Ireland, se esforça para demonstrar como a IA pode aproveitar a comunicação animal para melhorar a segurança, apoiar intervenções oportunas e melhorar a qualidade de vida. No futuro, pretendemos treinar o modelo para reconhecer comportamentos instintivos dos cães, como dar as patas, cutucar ou latir. As abelhas também estão sob a lente da IA. Suas intricadas danças de balanço — movimentos em forma de oito que indicam fontes de alimento — estão sendo decodificadas em tempo real com visão computacional. Esses modelos destacam como pequenas mudanças posicionais influenciam a forma como outras abelhas interpretam a mensagem. Leia também: 'Psicose de IA': o aumento de relatos que preocupa chefe da Microsoft Agente do ChatGPT reserva restaurante, faz compra, mas erra ao insistir Cachorra adota gatinho no interior de SP e amizade viraliza na internet Ressalvas Esses sistemas prometem ganhos reais no bem-estar e na segurança dos animais. Uma coleira que detecta os primeiros sinais de estresse em um cão de trabalho pode poupá-lo da exaustão. Um rebanho leiteiro monitorado por IA baseada em visão pode receber tratamento para doenças horas ou dias antes que um fazendeiro perceba o problema. Mas detectar um grito de angústia de um animal não é o mesmo que entender o que ele significa. A IA pode mostrar que dois sons emitidos por baleias costumam ocorrer juntos, ou que o guincho de um porco tem características semelhantes ao balido de uma cabra. O estudo de Milão vai além, classificando esses sons como amplamente positivos ou negativos, mas mesmo isso continua usando o reconhecimento de padrões para tentar decodificar emoções. Os classificadores emocionais correm o risco de simplificar comportamentos ricos em binários grosseiros de feliz/triste ou calmo/estressado, como registrar o abano da cauda de um cão como “consentimento” quando, às vezes, isso pode sinalizar estresse. Como observa Ntalampiras em seu estudo, o reconhecimento de padrões não é o mesmo que compreensão. Uma solução é que os pesquisadores desenvolvam modelos que integrem dados vocais com pistas visuais, como postura ou expressão facial, e até sinais fisiológicos, como frequência cardíaca, para construir indicadores mais confiáveis de como os animais estão se sentindo. Os modelos de IA também serão mais confiáveis quando interpretados em contexto, juntamente com o conhecimento de alguém experiente com a espécie. Também vale a pena ter em mente que o preço ecológico de ouvir é alto. O uso da IA adiciona custos de carbono que, em ecossistemas frágeis, prejudicam os próprios objetivos de conservação que pretendem servir. Portanto, é importante que qualquer tecnologia sirva genuinamente ao bem-estar animal, em vez de simplesmente satisfazer a curiosidade humana. Quer aceitemos ou não, a IA está aqui. As máquinas agora estão decodificando sinais que a evolução aperfeiçoou muito antes de nós e continuarão a melhorar nessa tarefa. O verdadeiro teste, porém, não é o quão bem ouvimos, mas o que estamos dispostos a fazer com o que ouvimos. Se gastamos energia decodificando sinais animais, mas usamos as informações apenas para explorá-los ou controlá-los mais rigidamente, não é a ciência que falha, somos nós. Shelley Brady não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.

FONTE: https://g1.globo.com/inovacao/noticia/2025/09/07/ia-ja-pode-indicar-como-animais-estao-se-sentindo.ghtml


#Compartilhe

Aplicativos


Locutor no Ar

Peça Sua Música

No momento todos os nossos apresentadores estão offline, tente novamente mais tarde, obrigado!

Anunciantes