Home » Несмотря на ИИ, лидеры информационной безопасности имеют «надежную работу навсегда», заявили на конференции

Несмотря на ИИ, лидеры информационной безопасности имеют «надежную работу навсегда», заявили на конференции

Киберугрозы настолько распространены, что решения искусственного интеллекта не лишат работы руководителей информационных служб и служб безопасности, заявили на финансовой конференции в Торонто на этой неделе.

Быть лидером в области информационной безопасности означает «навсегда гарантировать рабочие места», — заявил Жан-Франсуа Лего, глобальный руководитель отдела кибербезопасности корпоративного инвестиционного банка JP Morgan Chase, на конференции SIBOS сети SWIFT.

«Управление остается ключевым фактором. Управление имеет важное значение. Вы можете ускорить принятие решений [with AI]но очень важно иметь человека, который может интерпретировать информацию и принимать меры».

Человек должен посмотреть на модели ИИ и определить, как их обучать и защищать, добавил он. «В течение очень долгого времени для всех, кто работает в киберпространстве, существует защита рабочих мест».

Темой дискуссии была «ИИ на переднем крае кибербезопасности».

Другими участниками дискуссии были Мартин Кайл, директор по информационной безопасности в Payments Canada; Крис Лавджой, руководитель практики глобальной безопасности и устойчивости компании Kyndril Inc; и Реджи Таунсенд, вице-президент практики этики данных в SAS.

Роль директора по информационной безопасности «фундаментально расширится» благодаря искусственному интеллекту и новым технологиям, предсказывает Лавджой, поскольку для ответственного развертывания им потребуется руководство и менеджмент.

Управление организацией — это «командный вид спорта», сказала она, и никто не может решать, какую технологию следует использовать, где и как ее использовать. По ее словам, с этим сталкиваются организации, которые эффективно справляются с новыми технологиями.

Кайл предложил организациям взглянуть на две стороны ИИ. Да, злоумышленники могут использовать ИИ для компрометации фирмы, например, используя его для написания более качественных фишинговых писем, создания дипфейковых аудио и видео. Обратной стороной, по его словам, является размышление: «Как моя организация может использовать ИИ для противодействия этим угрозам». Если мы быстрее противников внедрим ИИ, мы сможем лучше защищаться, утверждал он.

«Поэтому наша задача — рассматривать ИИ как возможность в киберпространстве и бизнесе. Это возможность повысить нашу производительность, повысить ценность наших продуктов и услуг».

Read more:  Советники подали в суд на бывшего мэра Кагаяна де Оро за ненадлежащее распределение помощи COVID-19

Обеспокоены тем, что решения искусственного интеллекта, используемые сотрудниками, станут публичной утечкой корпоративных данных? Кайл утверждал, что легко иметь политику, ограничивающую использование одобренных решений искусственного интеллекта, которые проверяют утечку данных и не смешивают корпоративные и внешние наборы данных. Беспокоитесь о «галлюцинациях искусственного интеллекта»? Спроектируйте или выберите системы искусственного интеллекта так, чтобы их результаты/рекомендации проверялись людьми.

ИИ будет означать изменение в обучении сотрудников вопросам безопасности, предупредил Лего. Мошенники могут использовать ИИ, например, для написания грамматически правильных фишинговых писем, поэтому персонал больше не может быть обучен просто следить за опечатками. Вместо этого, по его словам, обучение должно быть сосредоточено на том, чего фишинговые сообщения требуют от людей (зайти на веб-сайт, перевести деньги с одного счета на другой и т. д.) и заставить сотрудников спросить себя: «Звучит ли это нормально в контексте моя деловая практика?

По его словам, в эпоху искусственного интеллекта организациям приходится постоянно адаптировать свои бизнес-процессы, чтобы не отставать от субъектов угроз, и это больше не является обязанностью кибер-команд.

По словам Таунсенда, организациям также придется обучать персонал этичному использованию новых технологий в рамках изменения корпоративной культуры. Это должно влиять не только на деловую практику, но также на продукты и услуги, которые создает организация.

Например, у SAS есть так называемая «модель мягкого управления», которая включает в себя межфункциональную группу руководителей, которые сосредотачивают внимание на этических дилеммах, которые ставит ИИ, следя за тем, чтобы продукты контролировали соответствие требованиям ИИ, а также кружки по этике — небольшие дискуссионные группы по ИИ. и его проблемы.

2023-09-22 16:47:17


1695457570
#Несмотря #на #ИИ #лидеры #информационной #безопасности #имеют #надежную #работу #навсегда #заявили #на #конференции

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.