Загрузка...

[News] The neural network created compromising evidence on the user of the social network

Thread in Social engineering created by iQuazar Dec 13, 2022. 2057 views

  1. iQuazar
    iQuazar Topic starter Dec 13, 2022 14,286 Feb 27, 2019
    Используя фотографии из соцсетей, нейросеть может сломать жизнь любому пользователю.

    [IMG]


    В ходе эксперимента исследователи Arstechnica использовали нейросеть для создания 7 фотографий вымышленного пользователя соцсетей, которого эксперты назвали Джон. В сценарии ИИ Джон — учитель начальной школы. За последние 12 лет Джон публиковал фотографии, на которых он работает, отдыхает и проводит свои выходные.

    [IMG]

    Эти изображения Джона использовались в качестве обучающих данных

    Используя эти 7 изображений, нейросеть научилась генерировать настоящий компромат на Джона. Она создала фото, на которых Джон:



    • сидит полуголый в учебном классе;
    • фотографируется с обнаженной порноактрисой;
    • ходит в костюме клоуна;
    • входит в состав экстремистской военной группировки;
    • отбывает срок в тюрьме за незаконный оборот наркотиков.

    [IMG]

    Сгенерированные фотографии Джона в различных «образах»

    Специалисты использовали нейросеть Stable Diffusion и метод обучения Dreambooth, чтобы научить ИИ создавать изображения Джона в различных стилях. Джон – несуществующая личность, но любой пользователь может повторить эксперимент, используя несколько фотографий (от 5 шт.) реального человека из соцсетей или даже стоп-кадры из видео.

    Процесс обучения ИИ занимает около 1 часа и является бесплатным, потому что работает на облачной платформе Google Cloud Platform. После завершения обучения генерация самих изображений заняла несколько часов — не потому, что они медленно генерируются, а потому, что из всех результатов нужно отсортировать множество неудачных изображений. Тем не менее, это намного проще и быстрее, чем рисовать реалистичное фото Джона в Photoshop с нуля.

    Синтезированные изображения не идеальны. Если внимательно присмотреться, знающий человек может распознать подделку. Но нейросети быстро развиваются и скоро смогут создавать изображения, которые будет невозможно отличить от реальных.

    На примере вымышленного Джона мы увидели, что даже со всеми своими недостатками нейросети могут сильно разрушить репутацию любого человека в соцсетях.


     
    This article was useful for you?
    You can thank the author of the topic by transferring funds to your balance
    Thank the author
  2. Glep
    Glep Dec 13, 2022 3296 Jan 11, 2021
    жду дипфейк *****ого
     
    1. saycauti
      Glep, посадят
    2. Glep
      saycauti, [IMG] это были последние его слова
    3. Жмал
      Glep, Чела рил посадили
  3. lasq4
    lasq4 Dec 13, 2022 452 Jan 3, 2020
    Страшная херня на самом деле, поэтому лучше никуда не выкладывать свои фотки))
     
  4. alt-flask
    Jelby
    Jelby Dec 13, 2022 Banned 3589 Apr 24, 2020
    паренек просто желтый жилет надел. это нужна хорошая фантазия чтобы еще догадаться за что он "сидит"
     
Loading...
Top