Close
plug
Лента новостей
27 апреля
Все новости Все новости Все новости
«Нейросети склонны к галлюцинациям»: специалисты «Лаборатории Касперского» объяснили, стоит ли полагаться на ИИ в работе и жизни

Тулякам рассказали, могут ли помочь нейросети в работе и жизни

«Нейросети склонны к галлюцинациям»: специалисты «Лаборатории Касперского» объяснили, стоит ли полагаться на ИИ в работе и жизни
Фото: Тульская служба новостей

Согласно опросу 64 % россиян что-то слышали о работе нейросетей. Сюда входят дипфейк-технологиии (реалистичная подмена фото-, аудио- и видеоматериалов), умные чат-боты наподобие ChatGPT и генераторы изображений (Midjourney). Наиболее перспективным люди посчитали генераторы изображений — 43%, умные чат-боты — 40% и дипфейк-технологии — 31%. Однако некоторые опрошенные опасаются, что развитие нейросетей лишит их работы. Такое мнение в отношении умных чат-ботов разделяют 30% респондентов, генераторов изображений — 25%, а дипфейк-технологий — 22%. Правдивы ли их опасения, Тульской службе новостей рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.

Технологии vs технологии

«Нейросети – это такой же инструмент, наподобие молотка которым забивают гвозди», — объясняет специалист. 

Однако, по его словам, из-за них появились и новые угрозы.

«Это, например, дипфейки – такие видео, где человек делает то, чего в реальной жизни не было. Этим люди могут пользоваться для мошеннических целей, шантажа», — рассказывает Владислав Тушканов.

Как отмечает специалист, где появляются угрозы, там возникают средства противодействия. 

«Есть технологии, которые позволяют обнаружить видео с дипфейками. Здесь идет такая борьба или гонка вооружений между защитниками и злоумышленниками», — объясняет исследователь данных.

Свобода творчества

По словам Владислава Тушканова, нейросети не заменят людей, а позволят нам выполнять более креативную работу, избавив от скучной рутины.

«Один из примеров — зарубежная журналистика, где создание новостей на основе каких-то локальных местных спортивных мероприятий происходит через нейросети. То же самое с биржевыми сводками. Подобную работу можно автоматизировать», — добавляет эксперт. 

Подобная история, по словам специалиста, складывается и в кибербезопасности. Машинное обучение помогает обрабатывать большое количество потенциально опасных объектов и событий.

«Сейчас мы видим, что многие предпочитают использовать картинки, которые сгенерировал искусственный интеллект. Возможно, это осложнит задачу тем, кто пополняет фотостоки. Однако рутинная работа автоматизируется в большем объеме. Тогда люди будут браться за креативные задачи, в нашем случае это исследование сложных угроз, расследование APT», — объясняет Владислав Тушканов.

Чувствительные темы

Людям, которые только начинают изучать нейросети, эксперт советует больше пробовать, но не забывать о правилах безопасности: не добавлять приватные данные, сведения о здоровье, информацию о родственниках.

«На нейросети не стоит полагаться в критических вещах. Если что-то болит, то лучше обратиться к врачу. Тем более нейросети склонны к тому, что мы называем галлюцинацией. Они очень уверенно и хорошим языком говорят глупости», — отмечает Владислав Тушканов.

Поэтому специалисты советуют не делиться частными данными, критически подходить к тому, что нейросети генерируют и больше пробовать.

Опечатка в тексте? Выделите слово и нажмите Ctrl+Enter
Подписывайтесь на ТСН24 в
Поделиться
Какого результата добьется тульский «Арсенал» по итогам сезона?
Подпишитесь на нашу рассылку
Яндекс.Метрика

Мы используем cookie-файлы, чтобы улучшить сайт для вас. Подробнее в Политике использования cookie-файлов.