В постоянно развивающемся цифровом ландшафте контент, созданный искусственным интеллектом, стал как инструментом, так и оружием. С быстрыми достижениями в области технологий создание реалистичных видео, созданных с помощью ИИ, теперь проще, чем когда-либо, благодаря таким приложениям как Sora от OpenAI и VEO 3 от Google. Эти платформы позволяют пользователям быстро создавать контент, основываясь лишь на простых подсказках. Исторически, распознавание поддельного контента, созданного с помощью ИИ, было относительно простым из-за таких видимых признаков, как несоразмерные черты. Однако по мере развития технологий увеличиваются и способности создавать практически неотличимый ложный контент. Это продвижение усилило тревожную тенденцию, аналогичную цифровому блэкфейсу: нечернокожие лица создают фиктивные чёрные или смуглые персоны ради социальной валюты или, что ещё более тревожно, для распространения вводящей в заблуждение информации. На таких платформах, как TikTok, где взаимодействия пользователей могут приносить финансовую выгоду, эти практики набирают обороты. "Фермерство возмущения", как описывает Рианна Уолкотт из Лаборатории черной коммуникации и технологий, — это практика создания контента, провоцирующего полемику, вместо того, чтобы вносить ценный или достоверный дискурс. Для тех, кого мотивирует финансовая выгода или другие недобросовестные цели, создание провокационного контента становится выгодным занятием. Примеры распространены, например, как распространение видео, ложно изображающих чернокожих женщин, злоупотребляющих льготами SNAP во время правительственных остановок. Такие видео не только укрепляют вредные стереотипы о чернокожих женщинах как зависящих от государственной поддержки, но и оказывают ощутимое влияние на общественное мнение, вызывая враждебность по отношению к таким программам, как SNAP. Несмотря на данные, показывающие, что большинство получателей SNAP — это не испаноязычные белые лица, поддельные видео продолжают укреплять вредоносные нарративы. Некоторые пользователи сознательно делятся этими подделками, считая, что они подтверждают их представления о системном злоупотреблении. "Даже когда люди распознают, что изображение или видео — это подделка", объясняет Майкл Хаггинс из Color of Change, "его наличие всё равно может влиять на подсознательные предвзятости и восприятие". Это подсознательное закрепление стереотипов представляет собой серьёзные риски для социальной сплочённости и политических климата, особенно с учётом того, что многие люди получают новости с этих платформ. По мере приближения важных электоральных циклов последствия становятся серьёзными. Технологические компании внедрили меры по борьбе с дезинформацией и расизмом. OpenAI ограничила реплицирование определённых фигур, таких как преподобный Мартин Лютер Кинг-младший, в своём контенте. Политики на платформах запрещают оскорбительный язык и требуют явные маркеры контента, созданного с помощью ИИ, чтобы помочь в обнаружении. Однако организационный психолог Джанис Гассам Асаре предостерегает от игнорирования этих видео как безвредных. Реальная опасность заключается в их поверхностной привлекательности. Она советует пользователям соцсетей подходить к контенту со скептицизмом, призывая: "Сомневайтесь в подлинности того, с чем вы сталкиваетесь". В то время как платформы стремятся контролировать контент, отдельные пользователи также должны проявлять бдительность, чтобы убедиться, что лёгкость создания контента с помощью ИИ не происходит за счёт правды и справедливости.
Your email address will not be published. Required fields are marked *