Вы используете устаревший браузер!

Страница может отображаться некорректно.

  • добавить в избранное
    Добавить в закладки

Защита персональных данных в эпоху нейросетей

Прочитали: 8261 Комментариев: 6 Рейтинг: 20

дуйсенбі, 4 қыркүйек 2023 ж.

Нейросети — это мощный прорыв технологий. Уже сейчас им можно доверять ответственные задачи, которые раньше человек выполнял вручную. Например, нейронка может работать техником на борту самолета и предупреждать об износе двигателя. Помогать ученым контролировать экосистему Байкала, следя за состоянием здоровья озера. С помощью нейросетей врачи научились выявлять ранние признаки эпилепсии у детей.

Казалось бы, такой полезный инструмент для улучшения всех аспектов человеческой жизни! Но мы-то помним фильмы про роботов, которые перестали слушаться людей… Теперь интернет забит как минимум пугающими видео и статьями о нейросетевом мошенничестве и сливе секретной информации в открытый доступ. А иногда встречаются и прогнозы о порабощении человечества. Пользователи не до конца понимают, есть ли от нейросетей прямая угроза. А если есть, то как от нее защититься, чтобы не потерять деньги и сохранить тайну личной жизни.

В этой статье мы надеемся развеять страхи наших читателей и предложим советы, как обезопасить себя в контексте использования нейросетей.

Нейросети не принимают решений

Сегодня мы распоряжаемся нейросетью как инструментом для сбора и анализа данных, чтобы на выходе получить алгоритм решения задачи. Допустим, сотрудники компании Х хотят придумать персонализированную рекламу для покупателей, чтобы простимулировать продажи к Новому году. Для этого нужно «скормить» нейросети текущую статистику запросов и покупок пользователей, и система сгенерирует клиентоориентированную рекламу.

Или Илон Маск совершенствует автомобиль Tesla. Чтобы автомобиль выработал манеру вождения, его нужно научить. Как это сделать? Дать системе огромный массив паттернов. Так машина научится собирать и анализировать всю информацию на своем пути, обеспечивая безопасность поездки. Без паттернов не будет примеров для обучения.

Нейросеть не может думать так же творчески, как человек. Она дает правильные и даже уникальные ответы, когда располагает огромной базой данных, которая собиралась десятилетиями. На основе этих данных нейросеть создает алгоритмы, чтобы получить подходящий ответ. Это математика, а новаторский и творческий подход — стопроцентная прерогатива человека. Поэтому:

Не стоит бояться нейросетей, это просто неимоверно огромная энциклопедия знаний. Но нужно всегда проверять информацию, которую вы от нее получаете. Нельзя перекладывать ответственность на алгоритмы.

Откуда нейросети берут данные

Мы сами их даем, пока общаемся на форумах, что-то ищем в поисковиках или используем гаджеты с трекерами.

Помните, раньше были браслеты с шагомером? У них еще не было таких возможностей, как у современных умных часов с функцией телефона и просмотра приложений. Часы с шагомером были популярны, но компания-производитель навсегда ушла с рынка. Оказалось, часы собирали данные о сне и поведении человека в течение дня. Пользователи об этом не знали.

Сегодня умными часами пользуется намного больше людей, а интернетом тем более. Скорее всего, вы уже поделились с нейросетями полезной информацией, но это не повод паниковать. Не надо удалять все аккаунты в социальных сетях и отправлять письма с голубями. Просто следует быть бдительным и не делиться в интернете личными данными, которыми могут воспользоваться аферисты.

Скрытая опасность

Мы выяснили, что нейросеть не может одним махом превратиться в машину, которая уничтожит Землю. Сегодня она собирает информацию и позволяет изучать мир. А специалисты трансформируют информацию в полезные функции. Но есть нюанс: если не контролировать развитие и использование технологий, то кроме полезных изобретений мы получим новые лазейки для мошенников.

Как процесс обучения нейросетей может выйти из-под контроля? Это вполне реально, когда нет регламентов работы. Сейчас с нейросетями работают все, кому это интересно, в том числе мошенники. А пользователи тем временем сталкиваются с новыми методами киберугроз и вымогательства.

Удочка, приманка, подсекай

Сейчас программисты формируют для нейросети алгоритмы обработки информации, которые она получает с разных сенсоров, похожих на органы чувств: визуальных, обонятельных и других. Данные поставляются на серверы и быстро анализируются в системе. Таким образом можно придумать алгоритм, который будет почти безукоризненно имитировать человеческие черты и поведение. И тут наступает момент, когда обмануть человека становится проще: люди еще не привыкли, что звонить со знакомого номера может сгенерированный искусственным интеллектом персонаж — а тем не менее это уже реальность!

Современные формы коммуникации отличаются от тех, что были раньше, даже всего 30 лет назад. Мы уверены: если слышим в трубке голос знакомого — это он и есть. Тем более, если звонок по видеосвязи: мне не может звонить робот, я же вижу и слышу своего лучшего друга. Но теперь мошенники могут выглядеть так же, как ваши ближайшие родственники, создавая клоны любых людей посредством нейросетевых технологий.

Это звучит пугающе. Но вспомните случаи из новостной ленты, когда, например, женщине звонит якобы адвокат и говорит, что ее сын в пьяном виде сбил на машине человека. Женщина в панике и отдает звонящему все деньги, лишь бы смягчить для сына наказание. Что в итоге? Адвокат оказался аферистом, а женщина — без денег. Для успешного вымогательства даже не понадобился сгенерированный нейросетью голос сына.

То же самое с обманом на маркетплейсах. Выкладываешь новый фотоаппарат на продажу, а через минуту к тебе стоит очередь из «покупателей». В итоге сам у себя покупаешь фотоаппарат на все деньги, которые есть на счету, потому что расслабился и отправил незнакомым людям фото банковской карты со всеми данными.

Эти примеры говорят о том, что для обмана не обязательно привлекать искусственный интеллект, достаточно подобрать хорошую приманку. А нейросеть просто дает шанс украсть деньги без актерских способностей. Отсюда совет специалистов «Доктор Веб»:

Не верьте на слово никому из тех, кто вам звонит или пишет. Проверяйте услышанную или прочитанную информацию. Подтверждайте её безопасными и известными только вам путями.

Новые схемы взлома и обмана

Появились новые комбинированные схемы использования нейросетей, через которые можно обмануть еще больше людей. И это уже не обычный звонок из «банка». С помощью нейросетей подменяют лицо и голос. В конце концов, можно даже создать нового лидера мнений и зазывать людей в финансовую пирамиду.

Дипфейки. Один из примеров фальсификации данных с использованием нейросетей — дипфейки. Это фальшивые видео или фотографии, которые легко распространить в интернете. Например, дипфейки с влиятельными политическими фигурами открывают возможности для манипуляции общественным мнением. Теоретически фотография любого пользователя интернета может сыграть в том же амплуа.

Слив информации. Когда мы отправляем изображения, тексты и другую информацию в искусственные интеллектуальные системы для генерации чего-либо, они могут быть скомпрометированы. Некоторые советуются с нейросетью как с психологом. Опасность в том, что всё, что вы рассказали, становится ее рабочим материалом. Эта информация перестает быть личной и может быть использована в других целях, в том числе преступных.

Поддельный Chat GPT. Кроме аутентичного Chat GPT есть подделки. Мошенникам очень интересна эта тема, поскольку не нужно просить пользователей поделиться информацией — те делают это добровольно. Ситуация: команда разработчиков хочет сделать ревью своего кода и закидывает его на фейковый Chat GPT. Сразу происходит слив коммерческой информации.

Генерация вредоносного кода и фишинговых писем. GPT-боты могут использоваться для генерации вредоносного кода. Для этого злоумышленники обращаются, например, к WormGPT — он позволяет несложным путем создавать вредоносные программы или писать фишинговые письма для эффективного распространения троянов. То есть код можно написать быстрее и без навыков программирования. А фишинговые письма сделать персонализированными, убедительными и на любом иностранном языке. Это очень опасно для доверчивых пользователей.

Обман алгоритмов распознавания лиц. Есть системы распознавания лиц и движений на основе данных с видеокамер. Эти системы учатся на дата-сетах, то есть наборе данных. На основе обработки этих данных выстраиваются алгоритмы. И даже тут появилась возможность взлома — обхода алгоритмов работы камер. Мошенники умеют работать с такими дата-сетами и знают определенные цветовые комбинации, которые камеры не распознают. Или умеют маскировать лицо так, чтобы его не считывала камера. А потом применяют это в своих целях.

Давайте обсудим, как максимально защитить свои данные от атак в сети.

Антивирусная правДА! рекомендует

  • Установите антивирус. Несмотря на то, что ваша персона в интернете может мало кого интересовать, от вашего имени и с вашими данными могут совершаться преступления. Многие проникновения в чужие системы осуществляются с помощью троянских программ. Например, с вашего компьютера злоумышленники могут осуществить атаку на банк. От этого вас защитит установка антивирусного решения.
  • Обновляйте программное обеспечение, чтобы иметь доступ к последним исправлениям уязвимостей. Люди часто игнорируют этот совет, хотя он важен. Любые обновления — это исправление ошибок. Вы можете не догадываться, что на вашем компьютере имеется «дыра». Но при актуальном ПО вы можете не беспокоиться, что компьютер будет взломан.
  • Установите стойкие пароли, различные для разных сервисов. Если вы храните пароли в записной книжке и скрываете даже от родственников, порадуем вас — это самый безопасный способ. Хотя куда чаще пользователи хранят пароли в зашифрованном виде в браузере, чтобы вводить их автоматически. Это приемлемо, но потенциально опасно, потому что злоумышленник может достать пароль из специальной зоны браузера. Специалисты «Доктор Веб» рекомендуют создавать сложные пароли и никому их не сообщать. Так их труднее всего достать и расшифровать.
  • Проявляйте осторожность в соцсетях. Посмотрите на свои страницы в социальных сетях со стороны: не стоит показывать то, что потенциально может создать неудобную ситуацию. Как татуировка с именем бывшего парня может создать трудности с обустройством личной жизни.
  • Будьте бдительны. Не доверяйте всем фотографиям и видео в интернете, особенно если они кажутся не слишком реалистичными или сомнительными. Никогда не переходите по заманчивым ссылкам в электронных письмах от неизвестных отправителей. Проверяйте информацию через разные источники. И сами источники тоже.
  • Проверяйте подозрительные сайты. На примере сайта https://www.drweb.ru/ идентифицируем его безопасность. Адрес сайта должен содержать протокол HTTPS. Значит, такой сайт шифрует информацию и подтвержден цифровым сертификатом. Учимся находить сертификат: кликните на значок замочка в начале адресной строки, перейдите в «безопасное подключение» и «действующий сертификат».
  • #drweb

    #drweb

    Для сайта «Доктор Веб» сертификат выдан GlobalSign — его почти невозможно подделать. В то же время некоторые сертификаты можно получить с минимальной проверкой — Let's Encrypt, например. Вы едва ли можете быть уверены, что сертификат точно связан с лицом или компанией, которая в нем заявлена. Такие сертификаты не являются средством надежной верификации.

    #drweb Скриншот страницы с данными о сертификате на сайт https://www.drweb.ru

    Помните: главная защита пользователей — это собственное критическое мышление. Будьте бдительны и осторожны: ведь технологии нейросетей могут быть направлены не только на благие, но и на преступные цели.

#вирусописатель #защита_от_потери_данных #персональные_данные #приватность #психология #фишинг

Оцените выпуск

Сделайте репост

Поставьте «Нравится»

Необходимо войти на страницу выпуска через аккаунт на сайте «Доктор Веб» (или создать аккаунт). Аккаунт должен быть связан с вашим аккаунтом в социальной сети. Видео о связывании аккаунта.


Нам важно ваше мнение

Чтобы оставить комментарий, нужно зайти через свой аккаунт на сайте «Доктор Веб». Если аккаунта еще нет, его можно создать.

Комментарии пользователей