Пункты, которые нужно помнить при переходе всей организации на решения на основе ИИ

Вопрос или проблема

В нашей организации в настоящее время мы находимся на стадии формирования команды, навыков для автоматизации и внедрения решений на основе ИИ. Таким образом, мы на очень ранней стадии этого пути в область ИИ.

Прямо сейчас мы также работаем над выявлением некоторых проблем, с которыми сталкиваемся в нашем бизнесе. Например, когда у нас есть 8 сегментов клиентов, но только 2 из них приносят много дохода. Остальные показывают плохие результаты. Мы хотели бы выяснить, почему это происходит, с помощью анализа данных/выявления факторов, вызывающих эту проблему.

Хотя всё это кажется выполнимым, я хотел бы попросить ваши рекомендации о том, как мы можем помочь бизнес-пользователям/лидерам понять, что ИИ может и чего не может делать. Потому что я чувствую, что команда бизнеса может быть увлечена ажиотажем вокруг ИИ/МЛ и т. д. Поэтому, как человек, работающий с данными, я считаю своим долгом разъяснить, что можно и нельзя делать с помощью ИИ. И почему мы не можем полагаться на результаты ИИ на 100 процентов. Почему всегда следует проявлять осторожность в доверии к выходным данным ИИ.

Любые книги, статьи, кейс-стадии или статьи и т. д., содержащие эту информацию/пункты для размышления при начале инициативы по внедрению ИИ в организации, могут помочь мне.

Одна из таких статей здесь.

Некоторые важные моменты, которые я могу упомянуть, это:

  1. ИИ/МЛ учатся (стабильным) паттернам из того, что им дано. Но, если их заставить, они найдут (неуместные) паттерны даже в шуме.

  2. Не могут учиться тому, чего не видели. Поэтому обобщение на самом деле возможно только для вариаций (разрешенных основным архитектурным принципом) того, что уже было увидено (например, когда алгоритм стабилен). Более того, нет фиксированного и уникального способа обобщать, от известных данных к невиданным данным; что связано с проблемой индукции, например, проявляющейся в нестабильных процессах и, как следствие, возникновением феномена недоопределенности теории данными.

  3. ИИ/МЛ могут дискриминировать и быть несправедливыми, где требуется справедливость (это может происходить по различным причинам).

  4. Это не всегда интерпретируемо, поэтому невозможно знать, почему получен тот или иной результат. Более важно, что нельзя верифицировать (по крайней мере, прямым образом, до факта), происходят ли какие-либо из предыдущих проблем.

Более того, другие ограничения в машинном обученииограничения глубокого обучения), особенно связанные с социальными приложениями, это:

  1. При выборе количественного анализа мы жертвуем способностью иметь нарративные понимания смыслообразования, стремимся работать с прокси, а не с фактическими конструкциями, и рискуем
    делегитимизировать жизненный опыт.
  2. При выборе вероятностного моделирования мы ограничиваем наше представление о мире как состоящем из фиксированных объектов с характеристиками и
    приоритизируем использование центральной тенденции, а не вовлечения в
    индивидуальность.
  3. При приоритизации прогнозирования мы создаем модели, которые не надежны для получения понимания подлежащей системы и чувствительны к
    изменениям и реакциям.
  4. При полагании на кросс-валидацию мы рискуем быть чрезмерно оптимистичными относительно общей применимости модели.

иерархия методов машинного обучения

Ссылки:

  1. Переобучение
  2. Ошибка обобщения
  3. Стабильность и обобщение в теории обучения
  4. Проблема индукции
  5. Сдвиг концепции
  6. Недоопределенность теории данными
  7. Этика, прозрачность и подотчетность ИИ
  8. Этический ИИ – это не только то, как вы его строите, это то, как вы его используете
  9. Язык обязательно содержит человеческие предвзятости, и машины, обученные на языковых корпусах, также будут это делать
  10. Объяснимое глубокое обучение: Поле для новичков
  11. Иерархия ограничений в машинном обучении
  12. Глубокое обучение: Критическая оценка

У меня нет отличных ссылок для этого ответа, но я заметил это на основе собственного опыта разработки команды в крупной корпорации. Я думаю, что часто сложно людям на уровне руководства понять, что проекты ИИ/МЛ имеют высокий уровень неудач. Часть того, что вы получаете, создавая команду для разработки решений ИИ/МЛ, это команда, которая может экспериментировать. Эксперименты не всегда дают конкретные результаты, но они всегда предоставляют информацию.

Экспериментальный аспект этих команд может казаться неуместным, но крайне важно создать среду, в которой работники могут проводить эксперименты без страха наказания за неудачу. Руководители должны осознавать, что это различие часто отличается от традиционной ИТ/разработки программного обеспечения.

Ответ или решение

Важные моменты при переходе к решениям на основе ИИ в организации

Переход к решениям на основе искусственного интеллекта (ИИ) является сложной задачей, особенно на начальных этапах, когда команда только формируется, и навыки в области автоматизации и ИИ ещё находятся в процессе развития. Ниже представлены ключевые аспекты, которые следует учитывать при внедрении AI-решений по всей организации.

1. Осознание ожидаемых результатов

Определение целей и ожиданий. Прежде всего, бизнес-руководство должно иметь чёткое понимание того, чего они хотят добиться с помощью ИИ. Это может варьироваться от повышения доходов в определённых сегментах до оптимизации внутренне рабочих процессов. Необходимо сформулировать конкретные, измеримые и достижимые цели, чтобы иметь возможность отслеживать прогресс и оценивать успешность проекта.

2. Обучение команды и создание культуры экспериментов

Формирование культуры инноваций. В отличие от традиционной разработки программного обеспечения, проекты на основе ИИ часто требуют экспериментов, что может привести к незначительным или даже негативным результатам. Важно создать безопасное пространство, где сотрудники могут проводить эксперименты и изучать новые идеи без страха наказания за неудачи. Это, в свою очередь, будет способствовать развитию креативности и стремления к поиску решений.

3. Понимание ограничений ИИ

Информирование о возможностях и рисках ИИ. Важно обучить ключевых работников четко понимать, что ИИ может и не может сделать. AI может анализировать данные и выявлять закономерности, но он не всегда будет решать проблемы, которые выходят за рамки доступных ему данных. Например, ИИ может не распознать изменения в потребительских предпочтениях, если они не были заранее представлены в обучающих данных.

  • Проблемы переобучения: ИИ может находить несущественные закономерности в произвольных данных (шум), что может привести к ошибочным выводам и рекомендациям.
  • Ограниченная обобщаемость: ИИ может с трудом обобщать знания на данных, которые не встречались в процессе обучения (проблема индукции).
  • Этика и справедливость: Очень важно учитывать, что алгоритмы могут не учитывать предвзятости в данных, что приведет к несправедливым результатам.

4. Транспарентность и объяснимость

Объяснимость решений ИИ. Однако, несмотря на все достижения, ИИ зачастую не может предоставлять прозрачные объяснения направлений своих выводов. Это создает неуверенность в его результатах и делает невозможным их полное доверие.

5. Информационные ресурсы

Для более глубокого понимания областей применения и ограничения ИИ, рекомендую ознакомиться с следующими источниками:

  • Статьи и исследования, посвящённые ограничиваемости машинного обучения и этическим аспектам ИИ.
  • Вебинары и открытые курсы, которые разбирают практические кейсы использования ИИ в бизнесе.
  • Книги по теме ИИ и аналитике данных, которые помогут расширить ваши знания и понимание.

Заключение

Переход к AI-решениям не является линейным процессом. Это скорее постоянное обучение и адаптация. Учитывая вышеизложенные аспекты, организация сможет заложить основу для успешного внедрения ИИ, минимизировав возможные риски и максимизировав его выгоды. Принятие эффективного подхода к обучению и информированию руководства и сотрудников создаст позитивный импульс для дальнейшего развития в эпоху цифровых технологий.

Оцените материал
Добавить комментарий

Капча загружается...