Фото: and machines, Unsplash Как и многим другим, мне доводилось помогать друзьям, страдавшим от зависимости. СМИ редко отражают истинную природу этой болезни.Фото: and machines, Unsplash Как и многим другим, мне доводилось помогать друзьям, страдавшим от зависимости. СМИ редко отражают истинную природу этой болезни.

[Перевод] Почему 95% ИИ-проектов проваливаются? Ответ кроется в той же причине, что и наркомания

Фото: and machines, Unsplash
Фото: and machines, Unsplash

Как и многим другим, мне доводилось помогать друзьям, страдавшим от зависимости. СМИ редко отражают истинную природу этой болезни. Зависимые, чаще всего, - это высокофункциональные люди, идеально вписанные в общество. Вы можете пройти мимо них на улице и не заметить ничего дурного. Но их недуг пожирает их изнутри, уничтожая их способности, мышление и благополучие. И всё же они чувствуют, что эти вещества необходимы им для выживания, и будут выполнять ментальную гимнастику олимпийского уровня, чтобы оправдать их употребление. «Мне это нужно, чтобы работать усерднее», «Это помогает мне расслабиться», «Я использую это, только когда необходимо».

Это не оправдания, а отчаянная попытка оправдать губительный пластырь, вместо того чтобы заняться самой первопричиной проблемы. Часто потому, что эта первопричина находится вне контроля человека. Пройдя через этот процесс несколько раз, вы начинаете видеть, что одна и та же схема оправданий и отрицания реальной проблемы повторяется снова и снова.

Чего я не ожидал, так это увидеть ту же самую схему в исследовании об искусственном интеллекте.

Доктор Ребекка Хайндс и доктор Боб Саттон собрали опыт более 100 руководителей, технологов и исследователей, чтобы создать «план, который поможет добиться успеха с ИИ». Но читается это скорее как отчаянная попытка зависимого признать ущерб, одновременно защищая своё употребление на семейном совете. Прочитав этот отчёт, я понял: к ИИ нужно относиться как к тяжёлому наркотику.

Позвольте мне объяснить.

«План» был опубликован в отчёте Work AI Institute, исследовательской организации, управляемой Glean AI - платформой генеративного ИИ для бизнеса. Сразу же налицо конфликт интересов. Work AI Institute, как минимум, выглядит как очередной отраслевой аналитический центр.

Но, несмотря на эту потенциальную предвзятость, руководительница исследования, доктор Хайндс, всё же признала некоторые выводы об ИИ на рабочем месте. Она заявила, что, когда работники используют ИИ, «часто возникает иллюзия, что у вас больше опыта, больше навыков, чем на самом деле», из-за чего офисные работники чувствуют себя умнее и продуктивнее, но их ключевые навыки при этом активно разрушаются. Отчёт также показал, что, если ИИ используется для замены человеческого суждения, он может создать пустую, отчуждающую работу.

В отчёте делается вывод, что ИИ может создавать либо «когнитивный дивиденденд», либо «когнитивный долг». По сути, они обнаружили, что, когда ИИ используется как партнёр эксперта, он может освободить время и обострить суждения. Однако, когда он используется как способ срезать углы - для автоматизации задач, расширения обязанностей и сокращения штата, - он разрушает способности работников и порождает ложную уверенность, создавая серьёзно вредящий когнитивный долг.

Я согласен с анализом когнитивного долга, но анализ когнитивного дивиденда вызывает у меня флешбэки из «Волка с Уолл-стрит» с их гудением и битьём себя в грудь.

Множество независимых исследований показали, что инструменты ИИ на самом деле значительно замедляют работу даже экспертов, поскольку они тратят больше времени на исправление ошибок ИИ, чем ИИ им экономит. Более того, другие исследования показали, что и эксперты тоже теряют ключевые навыки и критическое мышление при использовании ИИ.

Одним росчерком пера это исследование признало огромный когнитивный ущерб, наносимый ИИ, и одновременно попыталось убедить людей, что этого ущерба не произойдёт, если они будут использовать ИИ «правильно». С учётом происхождения этого исследования, это всё равно что наркодилер даёт своему лучшему клиенту сценарий, чтобы помочь ему когнитивно пережить столь необходимую интервенцию. Но этот сценарий сродни заявлению: «О нет, всё в порядке, я принимаю метамфетамин только для того, чтобы быстрее убираться в доме». Во-первых, ты всё ещё принимаешь метамфетамин, и он тебя разрушит. А во-вторых, необходимость убраться в доме почти наверняка не является причиной, по которой ты к нему обращаешься. Это та же самая схема оправданий и отрицания.

Когда сам дилер пишет инструкцию по применению, единственный способ не стать жертвой - это собственная лаборатория.

Платформа BotHub - это и есть такая лаборатория.

5ab67f945f8f2d028d97b2e889d31481.png

Здесь вы можете экспериментировать с разными моделями и сравнивать их стили. Всё это - без VPN и с удобной оплатой российскими картами.

Но, как и человек, страдающий зависимостью, который по Фрейду проговаривается или указывает на истинную причину своей проблемы, говоря вокруг да около, это исследование и его автор сделали то же самое.

Доктор Хайндс объяснила, что руководители часто непреднамеренно усугубляют проблему «иллюзии экспертизы», оценивая сотрудников по тому, как часто они используют ИИ. Вместо этого, подчёркивает она, руководители должны измерять реальные результаты. Она также предлагает, чтобы для получения когнитивного дивиденда ИИ использовался в рамках компетенции пользователя, а задачи, требующие человеческого суждения или творчества, не автоматизировались.

Это и есть хождение вокруг да около реальной проблемы.

Причина, по которой руководители не измеряют реальную продуктивность ИИ, заключается в том, что он почти никогда не создаёт положительного эффекта. McKinsey обнаружила, что 80% пилотных проектов с ИИ не оказали положительного влияния на итоговую прибыль, а MIT — что 95% провалились, а многие даже снизили производительность. Иными словами, если вы действительно измерите влияние ИИ, проект провалится.

Действительно, то, что говорит это исследование, заключается в том, что применимых сценариев для генеративного ИИ на рабочем месте с положительным эффектом ничтожно мало. Тем не менее, корпорации, похоже, знают это и всё равно продолжают его внедрять.

Вы, вероятно, уже знаете, почему. Это «эншиттификация» всего, что мы видим каждый день. Это калечащие компанию массовые увольнения для временного повышения прибыли. Это спекуляция ценой акций в ущерб здоровью бизнеса. Это превращение всего в товар. Это безудержная корпоративная жадность.

Это та же причина, по которой многие зависимые вообще обращаются к наркотикам. Самолечение, чтобы справиться с унизительным давлением такой расслоённой экономики. Те же структурные давления, которые вызывают эти виды зависимостей, теперь движут корпоративной зависимостью от ИИ. И эта зависимость тоже влияет на разум, способности и благополучие людей.

Я не думаю, что это просто полезная аналогия. Я искренне считаю, что нам нужно относиться к генеративному ИИ как к тяжёлому наркотику. Не потому, что он так силён, а потому, что он может быть так разрушителен для нашего психического здоровья и когнитивных способностей.

Ведь генеративный ИИ не создан и никогда не сможет быть создан для того, чтобы давать вам точные ответы. Всё, что он может, - это дать ответ, который статистически вас удовлетворит. Он не думает, он не знает, он неумелое зеркало нашего собственного высокомерия, создающее разрушающую реальность крошечную эхо-камеру для одного.

Поэтому, когда компания объявляет, что собирается внедрить ИИ для своих работников, мы действительно должны сравнивать это с тем, как союзные и нацистские военные накачивали своих солдат метамфетамином. Конечно, это может помочь им пережить трудный момент, это может создать хороший пиар, но это разрушит человеческие ресурсы организации до неузнаваемости. Настоящая зависимость - у тех, кто у власти, кто использует эти «инструменты», чтобы выжать из людей больше в ущерб им самим.


А теперь ваша очередь

Согласны ли вы с автором, что ИИ - это цифровой наркотик, вызывающий зависимость и когнитивный распад? Или эта метафора кажется вам слишком сильным преувеличением?

Делитесь своими мыслями в комментариях.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Экспертный анализ: Как Ozak AI превосходит топовые токены по скорости роста, прогнозам ROI и полезности на 2025–2030 годы

Экспертный анализ: Как Ozak AI превосходит топовые токены по скорости роста, прогнозам ROI и полезности на 2025–2030 годы

Ozak AI со своим токеном $OZ быстро выделился как один из самых перспективных ранних проектов в преддверии предстоящего бычьего рынка. Аналитики отмечают, как он сочетает быстрое расширение
Поделиться
Thenewscrypto2025/12/21 15:03
«Биткоин-сенатор» Синтия Луммис не будет баллотироваться на переизбрание

«Биткоин-сенатор» Синтия Луммис не будет баллотироваться на переизбрание

Публикация «Биткоин-сенатор» Синтия Ламмис не будет баллотироваться на переизбрание появилась на BitcoinEthereumNews.com. Вкратце сенатор Синтия Ламмис (республиканка, Вайоминг) объявила, что она
Поделиться
BitcoinEthereumNews2025/12/22 00:19
Нейросеть, которая не двигает стоп-лосс в 3 часа ночи. Мои эксперименты с алготрейдингом

Нейросеть, которая не двигает стоп-лосс в 3 часа ночи. Мои эксперименты с алготрейдингом

Всё началось со знаменитого челленджа - соревнования, где разработчики пытаются создать прибыльного AI-трейдера. Идея засела в голове: а что если LLM действител
Поделиться
ProBlockChain2025/12/21 20:58