| От барбекю с пирамидите Builders до разказ в реално време на Ноевия ковчег, чрез Наполеоновите войни, социалните мрежи бяха нападнати от ултрареалистичните видеоклипове на Google с изкуствен интелект VEO3. В инструмента хората могат, от една подкана, да създават 8-секундни видеоклипове или да използват “потока”, където има последователност от сцена със същия знак в центъра на екрана. Но ако технологията е впечатляваща, обратният ефект е страшен и е свързан с оценката на продукта. Хиляди видеоклипове с изкуствен интелект се генерират и използват в страниците за продажби на продукти, удостоверяващи качеството от покупка. Тъй като резултатът е много близък до реалността с околни гласове и звуци, свидетелството се представя като нещо вярно: “За съжаление има и извратената страна на технологията, като например използването на AI, за да подмамят хората, които търсят отзиви, за да решат дали да купят или не. Когато има много свидетелства, потребителят се оказва убеден”, казва Халана де Авила, мениджър на трафика в Kakoi Comunicação. От 2023 г. някои знаменитости се използват за виртуални измами с промоции, заявки за пиксели и връзки, които крадат данни на хората. Силна кампания за информираност на потребителите от марки се опитва да “научи” хората да идентифицират нещо фалшиво от нещо истинско, но с напредъка на AI битката изглежда се губи: “Необходимо е да се обединят марки и големи технологии, в допълнение към повишаването на информираността на хората, така че да не се случват толкова много измами на пазара. На страница с препоръки, например, някои знаци са доста видими, продължителността на видеоклипа, общите и грешките свидетелства, в допълнение към социалните акаунти с малко или никакво движение. Това са така наречените червени знамена, за които трябва да сме наясно”, заключава Халана. |
| От барбекю с пирамидите Builders до разказ в реално време на Ноевия ковчег, чрез Наполеоновите войни, социалните мрежи бяха нападнати от ултрареалистичните видеоклипове на Google с изкуствен интелект VEO3. В инструмента хората могат, от една подкана, да създават 8-секундни видеоклипове или да използват “потока”, където има последователност от сцена със същия знак в центъра на екрана. Но ако технологията е впечатляваща, обратният ефект е страшен и е свързан с оценката на продукта. Хиляди видеоклипове с изкуствен интелект се генерират и използват в страниците за продажби на продукти, удостоверяващи качеството от покупка. Тъй като резултатът е много близък до реалността с околни гласове и звуци, свидетелството се представя като нещо вярно: “За съжаление има и извратената страна на технологията, като например използването на AI, за да подмамят хората, които търсят отзиви, за да решат дали да купят или не. Когато има много свидетелства, потребителят се оказва убеден”, казва Халана де Авила, мениджър на трафика в Kakoi Comunicação. От 2023 г. някои знаменитости се използват за виртуални измами с промоции, заявки за пиксели и връзки, които крадат данни на хората. Силна кампания за информираност на потребителите от марки се опитва да “научи” хората да идентифицират нещо фалшиво от нещо истинско, но с напредъка на AI битката изглежда се губи: “Необходимо е да се обединят марки и големи технологии, в допълнение към повишаването на информираността на хората, така че да не се случват толкова много измами на пазара. На страница с препоръки, например, някои знаци са доста видими, продължителността на видеоклипа, общите и грешките свидетелства, в допълнение към социалните акаунти с малко или никакво движение. Това са така наречените червени знамена, за които трябва да сме наясно”, заключава Халана. |

