Стало известно, могут ли уволить работника за использование нейросетей
IT-эксперт Жадеев: человеку грозит увольнение при утечке данных с работы в ИИ
Сотрудника могут уволить в случае утечки данных работодателя в ChatGPT или другом ИИ, предупредил в беседе с «Газетой.Ru» эксперт в области информационных технологий Артём Жадеев. По его словам, аналогичная ответственность может наступить в ситуации, если непроверенный нейросетевой отчет привёл к убыткам компании.
Работодатель вовсе не безоружен перед рисками, которые несёт бесконтрольное использование ИИ. За конкретные действия с нейросетями вроде ChatGPT или DeepSeek сотрудник может получить дисциплинарное взыскание вплоть до увольнения, а если его действия нанесли компании ущерб, то и гражданский иск, — уточнил Жадеев.
Самые частые и опасные нарушения — это утечка коммерческой тайны или персональных данных в публичные большие языковые модели, а также выдача сгенерированного контента за собственный результат без какой-либо проверки. Кроме того, к ним относятся попытки написать с помощью нейросети скрипты для обхода систем безопасности.
Эксперт напомнил, что применение ИИ для взлома, создания кейлоггеров или действий, запрещенных политикой компании, — это грубое нарушение, а иногда и уголовное преступление. В таких случаях грозит штраф до 300 тыс. рублей.
Ранее юрист Марчел Кырлан заявил, что сотрудника не могут уволить за критику начальства. Однако, по его словам, за высказывания в некорректной форме работники могут получить дисциплинарное взыскание.






