ИИ в логистике: между эффективностью и этикой

ИИ в логистике: между эффективностью и этикой Изображение сгенерировано нейросетью Kandinsky 3.1

Логистика сегодня оказалась в парадоксальной ситуации. С одной стороны, искусственный интеллект уже стал рабочим инструментом – управляет клиентским планом погрузки, согласовывает заявки, диагностирует подвижной состав и прогнозирует загрузку полигонов. С другой – никто до конца не понимает, кто отвечает, когда этот инструмент ошибается. Чтобы дать ответ на этот вопрос, УралПолит.Ru побеседовал с сооснователем логистической компании SIGMA Татьяной Патужной.

Тонкая грань между эффективностью и риском

В погоне за производительностью экспедиторы и перевозчики внедряют ИИ туда, где ранее работали только люди. Так, по словам Татьяны Патужной, в РЖД нейросети и машинное зрение уже трудятся на 61 пункте коммерческого осмотра вагонов. Система автоматически определяет смещение груза, неправильное крепление и другие нарушения. За 5 лет экономический эффект от внедрения, по отчетам, составил почти 1 млрд рублей.

На конференции Data Fusion 2025 назвали несколько направлений, где ИИ уже дает результат: прогнозирование спроса, оптимизация маршрутов, управление контейнерным парком, профилактическое обслуживание транспорта и оценка операционных рисков. Однако есть нюанс: алгоритм работает отлично, пока все идет по шаблону. Как только возникает нестандартная ситуация – закрытый перегон, внезапный ремонт путей, срыв сроков подачи вагонов, – начинаются проблемы.

Кто в ответе?

В России, как и в большинстве стран мира, отдельного закона об искусственном интеллекте пока нет. Есть Национальная стратегия развития ИИ до 2030 года и общие нормы гражданского права, но прямой ответ на вопрос «кто виноват, если ошибся алгоритм?» отсутствует.

Юристы сходятся во мнении, что ответственность несет пользователь, т.е. тот, кто принял окончательное решение на основе выдачи нейросети. Закон не учитывает сложность технологии, ее самообучаемость и непредсказуемость. Формально нельзя переложить вину на алгоритм – отвечать придется компании или лично руководителю.

Что делать бизнесу?

Рынку нужны работающие решения, и они уже появляются. Во-первых, человеческий контроль – любой критически важный процесс должен сохранять человека в контуре принятия решений. ИИ предлагает – человек утверждает.

Во-вторых, прозрачность алгоритмов – компании должны понимать, как работают их системы. В-третьих, внутренняя политика – в компании должны быть четкие правила: какие задачи можно доверять ИИ полностью, где нужен контроль человека, кто отвечает за ошибки.

ИИ не заменит человека, но трансформирует характер его работы, освобождая от рутинных задач и позволяя сосредоточиться на стратегическом управлении и анализе. При этом ответственность за решения алгоритма всегда будет человеческой. 

Добавьте УралПолит.ру в мои источники, чтобы быть в курсе новостей дня.

Читайте еще материалы по этой теме:


Вы можете поделиться новостью в соцсетях

Версия для печати:

Новости партнеров