«Лаборатория Касперского» представляет свои принципы этичного использования ИИ в кибербезопасности

19 октября 2023 г.

В рамках Глобальной инициативы по информационной открытости «Лаборатория Касперского» представила этические принципы разработки и использования систем на основе машинного обучения. Компания сделала это на Форуме по управлению Интернетом под эгидой ООН, одна из ключевых тем которого в этом году — искусственный интеллект и развивающиеся технологии. «Лаборатория Касперского» организовала дискуссию, во время которой обсуждались этические принципы разработки и использования систем машинного обучения, а также технические и юридические аспекты. В новом документе компания объясняет, как она обеспечивает надёжность систем, основанных на ML-алгоритмах, и призывает других участников отрасли присоединиться к диалогу и выработать общие этические принципы.

«Лаборатория Касперского» использует алгоритмы машинного обучения в своих решениях уже около 20 лет. Сочетание их с человеческим опытом позволяет компании ежедневно обнаруживать и противодействовать множеству новых угроз, причём ML играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. Чтобы способствовать развитию инноваций, «Лаборатория Касперского» сформулировала этические принципы разработки и использования систем машинного обучения и открыто делится ими с представителями отрасли, чтобы придать импульс многостороннему диалогу, цель которого — выработать единые практики использования таких технологий в кибербезопасности для улучшения жизни людей.

По мнению «Лаборатории Касперского», при разработке и использовании AI/ML должны учитываться следующие шесть принципов:

  1. прозрачность;
  2. безопасность;
  3. человеческий контроль;
  4. конфиденциальность;
  5. приверженность целям кибербезопасности;
  6. открытость к диалогу.

Принцип прозрачности означает твёрдое убеждение «Лаборатории Касперского» в том, что компании должны информировать своих клиентов об использовании технологий машинного обучения в своих продуктах и услугах. Компания соблюдает этот принцип, разрабатывая максимально, насколько это возможно, интерпретируемые системы ML и предоставляя заинтересованным сторонам информацию о том, как работают решения компании и каким образом в них используются технологии машинного обучения.

Принцип безопасности находит отражение в широком спектре мер, которые реализует «Лаборатория Касперского» для обеспечения качества своих систем машинного обучения. Среди них — аудит безопасности, специфичный для ML/AI, меры по минимизации зависимости от сторонних наборов данных в процессе обучения AI-решений, а также фокус на облачные технологии машинного обучения с необходимыми мерами защиты вместо моделей, устанавливаемых на машины клиентов.

Принцип человеческого контроля объясняется необходимостью проверять работу AI/ML-систем при анализе сложных угроз. Для обеспечения эффективной защиты «Лаборатория Касперского» стремится оставить человеческий контроль важнейшим элементом всех своих AI/ML-систем.

Поскольку большие данные играют важную роль в процессе обучения таких систем, компании, работающие с алгоритмами машинного обучения, должны учитывать право на цифровую приватность. «Лаборатория Касперского» применяет ряд технических и организационных мер для защиты данных и систем, чтобы обеспечить цифровую приватность пользователей.

Пятый этический принцип отражает стремление «Лаборатории Касперского» использовать AI/ML-инструменты исключительно в целях кибербезопасности. Сосредоточившись исключительно на защитных технологиях, компания следует своей миссии строить более безопасный мир и демонстрирует свою приверженность защите пользователей и их данных.

Шестой принцип касается открытости «Лаборатории Касперского» к диалогу со всеми заинтересованными сторонами с целью обмена передовым опытом в области этичного использования алгоритмов машинного обучения. Компания готова обсуждать эти темы, поскольку считает, что только сотрудничество позволяет преодолевать препятствия, стимулировать инновации и открывать новые горизонты.

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, ещё больше повысить киберустойчивость общества. Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несёт определённые риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки чётких рекомендаций, как сделать разработку таких решений этичной», — комментирует Антон Иванов, директор по исследованиям и разработке «Лаборатории Касперского».

Источник: Пресс-служба компании «Лаборатория Касперского»

( )   

Комментарии закрыты.