sábado, junho 14

Ferramenta do Google capaz de criar vídeos em 4K com pessoas e cenários fictícios já é usada por prefeituras brasileiras. Especialistas em tecnologia dizem que inovação precisa de supervisão humana e responsabilidade com o conteúdo gerado.

A fronteira entre o real e o virtual ficou ainda mais tênue com o lançamento do Veo 3, novo modelo de inteligência artificial generativa de vídeo do Google. A ferramenta é capaz de criar cenas com pessoas e ambientes completamente fictícios em resolução 4k e com áudio sincronizado e ainda com alto grau de realismo. O usuário pode gerar vídeos completos em segundos, com personagens, cenários, voz e narrativa integrados. O impacto foi imediato, a tecnologia viralizou nas redes e reacendeu debates sobre os limites do uso da IA na comunicação.

https://economianegocios.com.br/wp-content/uploads/WhatsApp-Video-2025-06-02-at-15.59.07-11.mp4

Prefeituras de diferentes regiões do Brasil já começaram a explorar a ferramenta. A campanha digital da festa junina de Ulianópolis, no Pará ,foi inteiramente produzida com IA. Personagens vestidos com trajes típicos anunciam as atrações do evento em um cenário fictício criado pelo Veo 3. Já em Marília (SP), um vídeo institucional trouxe uma repórter virtual alertando a população sobre a queda de temperatura. A qualidade visual e sonora foi tão convincente que moradores acreditaram se tratar de uma gravação tradicional, feita por uma profissional da imprensa.

A jornalista e professora de comunicação Cris Moreira, com 25 anos de atuação em grandes emissoras de tv destaca que o avanço tecnológico traz ganhos importantes, mas exige atenção. “Esses vídeos são eficazes na comunicação com o público, mas é preciso cuidado. A tecnologia por si só não garante veracidade nem credibilidade. É o olhar humano, ético e profissional que dá sentido à mensagem”, afirma.

IA na comunicação: inovação ou risco?

O uso de avatares digitais na comunicação institucional levanta uma série de questões. A primeira delas é a ética. Até que ponto o público está ciente de que vê um vídeo gerado por IA? A segunda é regulatória. Há regras que obriguem órgãos públicos a informar o uso de tecnologia nesse tipo de conteúdo?

Daniel Marques, presidente da AB2L (Associação Brasileira de Lawtechs e Legaltechs), lembra que o uso da inteligência artificial precisa ser transparente, mas também não pode ser freado por uma visão distorcida do que é a ética. “Não existe maior benefício ético para a sociedade brasileira do que uma regulação e políticas públicas que coloquem o Brasil como liderança da inovação em relação à inteligência artificial. Qualquer projeto que vise limitar a utilização, a implementação e o desenvolvimento da IA vai contra o próprio seio e o coração da sociedade!”, destaca.

Cris Moreira avalia que o impacto da IA nas estratégias de comunicação será cada vez mais presente, inclusive no setor público. “É natural que governos, marcas e agências explorem essas ferramentas. Elas são mais acessíveis, ágeis e escaláveis. Mas isso não pode significar a ausência de curadoria. Toda comunicação, ainda que automatizada, precisa ser supervisionada por quem entende de narrativa, contexto e impacto social.”

Já Marques também reforça a importância da transparência no uso da IA, especialmente em ambientes institucionais. “A comunicação com o cidadão deve ser clara e responsável. Informar que um conteúdo foi gerado por inteligência artificial é fundamental para garantir confiança e segurança jurídica, mesmo quando o objetivo é positivo, como uma ação educativa ou de interesse público.”

Tendência global e dilemas futuros

O Veo 3 é parte de um movimento maior das big techs para integrar IA a produtos audiovisuais. A própria OpenAI, responsável pelo ChatGPT, lançou recentemente o Sora, modelo de IA capaz de criar vídeos a partir de textos simples. Este fato deve inaugurar uma nova fase para publicidade, cinema, jornalismo e redes sociais.

No entanto, o avanço da tecnologia ainda é mais rápido do que os debates sobre suas consequências. Falsificações, vídeos enganosos e manipulação de conteúdo por deepfakes estão entre os principais riscos. Todos exigem uma atuação ativa de profissionais, educadores e reguladores.

Cris Moreira acredita que o futuro da IA na comunicação vai depender do equilíbrio entre inovação e responsabilidade. “Não se trata de frear a tecnologia, mas de estabelecer limites claros para seu uso. Comunicação é influência e, portanto, precisa ser tratada com seriedade. A IA pode ser uma aliada poderosa, desde que operada com consciência.”

PUBLICIDADE/ CLIQUE NA IMAGEM, SAIBA MAIS!

Na mesma linha de debate, Marques avalia que uma falsa compreensão do que a ética representa para o Brasil, acaba dando a ideia equivocada que um posicionamento com esse fim venha “atrapalhar” o desenvolvimento tecnológico, colocando o país na periferia da inteligência artificial no mundo. “O que precisamos mesmo responder é: queremos ser protagonistas da inovação ou apenas meros espectadores? A ética, como ciência filosófica do comportamento humano, não pode ser falseada para impedir que a sociedade brasileira se beneficie dessa nova tecnologia.”, finaliza

Exit mobile version