Governance & Ethics

Мошенничество, подпитываемое ИИ, растет, пока ИИ в здравоохр

Киберпреступники используют ИИ как оружие, выводя на новый уровень мошеннические схемы, которые наносят серьезный урон организациям. Бум ИИ в сфере здравоохранения обеспечивает точную диагностику — но нет никаких доказательств, что это спасает жизни.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
Иллюстрация фишингового письма, сгенерированного ИИ, подавляющего системы кибербезопасности

Key Takeaways

  • ИИ значительно ускоряет и удешевляет мошеннические схемы, такие как фишинг и создание дипфейков.
  • ИИ в здравоохранении демонстрирует высокую точность в исследованиях, но пока не имеет доказательств улучшения реальных результатов для пациентов.
  • DeepSeek-V4 позиционирует Китай как конкурента в области ИИ с открытым исходным кодом на фоне напряженности между США и Китаем.

Мошенничество с использованием ИИ достигло пика.

Генеративные модели, такие как ChatGPT, вышедшие на рынок в конце 2022 года, предоставили мошенникам настоящий кладезь для создания до боли правдоподобных фишинговых писем, дипфейков, обманывающих зрителей, и даже автоматизированного поиска уязвимостей в ПО. Теперь, по мере того как эти инструменты становятся совершеннее и дешевле, объемы атак растут — организации с трудом справляются, а системы защиты работают на пределе. Рианнон Уильямс метко описывает ситуацию в MIT Technology Review: киберпреступники не просто пробуют воду, они ныряют с головой, делая угрозы более быстрыми, масштабируемыми и смертоносными.

Вот цифры: фишинговые наборы, работающие на LLM, массово генерируют персонализированные приманки, видео с дипфейками имитируют руководителей с помощью голосовых клонов, которые проходят проверку. Рыночные условия меняются жестоко — защитники пытаются догнать, тратя миллиарды на ИИ-щиты, которые едва успевают. И ситуация ухудшается; модели с открытым исходным кодом демократизируют зло — элитные хакеры больше не требуются.

«ИИ делает их быстрее, дешевле и проще в исполнении — проблема будет усугубляться по мере того, как все больше киберпреступников будут осваивать эти инструменты, а их возможности будут улучшаться».

Эта цитата Уильямс бьет точно в цель. Суперзаряженное мошенничество возглавляет список «10 вещей, которые сейчас важны в ИИ» — никаких преувеличений, только холодная реальность.

Почему ИИ-инструменты в здравоохранении пока не работают?

Врачи полагаются на ИИ для ведения записей, анализа историй болезни для выявления пациентов в группе риска, расшифровки рентгеновских снимков с машинной точностью. Исследования демонстрируют высокую точность — впечатляет на бумаге, модели обнаруживают опухоли или аномалии лучше, чем некоторые люди. Но Джессика Хамзелоу задает главный вопрос в The Checkup: действительно ли эти гаджеты улучшают исходы лечения?

Убедительного ответа нет. Испытания показывают, что инструменты работают в лабораториях, но реальное развёртывание? Тишина в отношении показателей выживаемости пациентов, сокращения повторных госпитализаций или устойчивого снижения затрат. Это классическая ловушка ИИ — бенчмарки ослепляют, польза у постели больного исчезает. Регуляторы наблюдают с осторожностью; одобрение FDA зависит от безопасности, а не от доказанной эффективности.

Уникальное наблюдение: это перекликается с бумом электронных медицинских карт (EHR) в 2010-х. Больницы вложили миллиарды в электронные записи, обещавшие эффективность, только чтобы увидеть рост выгорания и сохранение ошибок — пока продольные исследования не заставили внести исправления. ИИ в здравоохранении рискует пойти по тому же пути, яркие демонстрации маскируют провалы развёртывания.

DeepSeek-V4 бросает вызов доминированию OpenAI?

Китайская компания DeepSeek представила превью V4, заявляя о превосходстве в области открытого исходного кода. Адаптированная для чипов Huawei, она стремится к паритету с закрытыми моделями OpenAI и DeepMind — повышая возможности кодирования и эффективность. CNN, Bloomberg сообщают об ажиотаже: это самая мощная открытая платформа на сегодняшний день.

Скептический взгляд? Ускорение ИИ-усилий Пекина на фоне экспортных ограничений США — V4 обходит зависимость от Nvidia, это геополитический ход. Но заявления об открытом исходном коде вызывают вопросы; бенчмарки часто избирательны, реальные преимущества быстро стираются.

Короткий параграф: Напряженность растет.

США обвиняют Китай в массовой краже ИИ-технологий, меморандум Белого дома разносит эксплуатацию моделей. Пекин отвечает обвинениями в клевете — Ars Technica освещает перепалку. Добавьте к этому широкое распространение GPT-5.5 от OpenAI, несмотря на опасения по поводу кибербезопасности (NYT), 8000 увольнений в Meta для финансирования ИИ (QZ), негативную реакцию сотрудников Palantir на связи с ICE (Wired).

Эра бесплатного ИИ уходит — лаборатории гонятся за прибылью (The Verge). Судебная тяжба между Маском и Альтманом раскрывает секреты (WP). Запреты для детей в социальных сетях распространяются: Норвегия вводит, Филиппины рассматривают, США выводят ИИ из школ.

Более широкие волны в шторме технологий

Самые прослушиваемые треки на Spotify? Тейлор Свифт — отвлечение среди хаоса. Движение «Месяц офлайн» имитирует «Январь без алкоголя» для телефонов (Atlantic). Миссия «Европа» ищет внеземную жизнь в ледяных океанах (NASA через MITTR).

Премьер-министр Норвегии подводит итог борьбе за социальные сети:

«Мы хотим детства, в котором дети могут быть детьми. Игра, дружба и повседневная жизнь не должны быть захвачены алгоритмами и экранами».

Четкая позиция: двойная грань ИИ — мошенничество требует срочных мер защиты, здравоохранению нужны доказательства результатов перед масштабированием. Рекламные машины работают; данные не лгут. Инвесторы вкладывают средства, но без результатов это масштабный «виртуальный товар».

Рынок реагирует: акции компаний, занимающихся кибербезопасностью, выросли на 15% с начала года на фоне сообщений об угрозах ИИ, компании в сфере медицинского ИИ торгуются с мультипликаторами в 20x, несмотря на пробелы в доказательствах — сигналы пузыря?

Прогноз: к 2026 году убытки от мошенничества достигнут 1 триллиона долларов ежегодно, если не будет принято мер по контролю за распространением, по данным экстраполяции Darktrace. Здравоохранение? Ожидайте мандатов FDA на проведение испытаний с оценкой результатов, что позволит отсеять слабые инструменты.

**


🧬 Связанные инсайты

Часто задаваемые вопросы**

Что такое мошенничество, управляемое ИИ?

Кибератаки с использованием генеративного ИИ для фишинга, дипфейков и сканирования уязвимостей — быстрее и дешевле, чем когда-либо.

Улучшает ли ИИ в здравоохранении исходы лечения пациентов?

Инструменты отлично справляются с тестами на точность, но пока нет убедительных доказательств реальной пользы для здоровья.

Является ли DeepSeek-V4 лучше моделей GPT?

Заявлено соперничество с OpenAI; открытый исходный код на чипах Huawei, но независимые бенчмарки ожидаются.

Written by
Legal AI Beat Editorial Team

Curated insights, explainers, and analysis from the editorial team.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by MIT Tech Review - Policy