| Desde la barbacoa con los constructores de la pirámide hasta un relato en tiempo real del Arca de Noé, hasta las Guerras Napoleónicas, las redes sociales fueron invadidas por los videos de inteligencia artificial VEO3 ultrarrealistas de Google. En la herramienta, las personas pueden, desde un solo mensaje, crear videos de 8 segundos o usar el “flujo” donde hay una secuencia de escena con el mismo carácter en el centro de la pantalla. Pero si la tecnología es impresionante, el efecto contrario da miedo y se asocia con la evaluación del producto. Se están generando y utilizando miles de videos de IA en las páginas de ventas de productos que atestiguan la calidad de una compra. Como el resultado es muy cercano a la realidad con voces y sonidos ambientales, el testimonio pasa como algo verdadero: “Desafortunadamente, también existe el lado perverso de la tecnología, como usar la IA para engañar a las personas que buscan reseñas para decidir si comprar o no. Cuando hay muchos testimonios, el consumidor termina convencido”, dice Hallana de Ávila, Gerente de Tráfico de Kakoi Comunicação. Desde 2023, algunas celebridades han sido utilizadas para estafas virtuales con promociones, solicitudes de fotos y enlaces que roban los datos de las personas. Una fuerte campaña de concienciación del consumidor de marcas intenta “enseñar” a las personas a identificar algo falso de algo real, pero con el avance de la IA, la batalla parece perderse: “Es necesario unir marcas y grandes tecnologías, además de sensibilizar a las personas para que no ocurran tantas estafas en el mercado. En una página testimonial, por ejemplo, son bastante visibles algunos signos, la duración del video, testimonios genéricos y de error, además de cuentas sociales con poco o ningún movimiento. Estas son las llamadas banderas rojas de las que debemos tener en cuenta”, concluye Hallana. |
| Desde la barbacoa con los constructores de la pirámide hasta un relato en tiempo real del Arca de Noé, hasta las Guerras Napoleónicas, las redes sociales fueron invadidas por los videos de inteligencia artificial VEO3 ultrarrealistas de Google. En la herramienta, las personas pueden, desde un solo mensaje, crear videos de 8 segundos o usar el “flujo” donde hay una secuencia de escena con el mismo carácter en el centro de la pantalla. Pero si la tecnología es impresionante, el efecto contrario da miedo y se asocia con la evaluación del producto. Se están generando y utilizando miles de videos de IA en las páginas de ventas de productos que atestiguan la calidad de una compra. Como el resultado es muy cercano a la realidad con voces y sonidos ambientales, el testimonio pasa como algo verdadero: “Desafortunadamente, también existe el lado perverso de la tecnología, como usar la IA para engañar a las personas que buscan reseñas para decidir si comprar o no. Cuando hay muchos testimonios, el consumidor termina convencido”, dice Hallana de Ávila, Gerente de Tráfico de Kakoi Comunicação. Desde 2023, algunas celebridades han sido utilizadas para estafas virtuales con promociones, solicitudes de fotos y enlaces que roban los datos de las personas. Una fuerte campaña de concienciación del consumidor de marcas intenta “enseñar” a las personas a identificar algo falso de algo real, pero con el avance de la IA, la batalla parece perderse: “Es necesario unir marcas y grandes tecnologías, además de sensibilizar a las personas para que no ocurran tantas estafas en el mercado. En una página testimonial, por ejemplo, son bastante visibles algunos signos, la duración del video, testimonios genéricos y de error, además de cuentas sociales con poco o ningún movimiento. Estas son las llamadas banderas rojas de las que debemos tener en cuenta”, concluye Hallana. |

