|
Повседневный быт. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ.
|
|
| маша | Дата: Пятница, 12.09.2025, 23:11 | Сообщение # 436 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Лопнет ли пузырь вокруг ИИ? Это не такой уж простой вопрос.
Если вам нужны доказательства того, что хайп вокруг искусственного интеллекта выходит из-под контроля, просто взгляните на Маска.
Он заявлял, что FSD (полностью автономное вождение) вскоре сделает владение автомобилями бессмысленным, хотя после десятилетия разработки эта система всё ещё ведёт себя как близорукий двенадцатилетний подросток.
Совсем недавно он также сказал, что робот Tesla Optimus, который пока что лишь шаркает по идеально ровной поверхности так, словно испугался и его дёргают за ниточки, как диснеевского аниматроника 90-х годов, скоро будет приносить 80% выручки Tesla.
И, каким-то образом, несмотря на эти абсолютно нереалистичные и, мягко говоря, идиотские заявления, аналитики и инвесторы не называют Маска клоуном, а продолжают вкачивать деньги в его сомнительные проекты.
Неудивительно, что в СМИ на этой неделе активно обсуждают, что пузырь вокруг ИИ вот-вот лопнет. Но при этом из разговора выпадают ключевые моменты.
Ограниченность технологий ИИ
Во-первых, мы уже знаем, что ИИ — технология с серьёзными ограничениями, но индустрия делает вид, что это не так.
Например, граница эффективных вычислений известна уже несколько лет. Она показывает, что математика, лежащая в основе ИИ, выходит на стадию убывающей отдачи: генеративные модели уже достигли предела возможностей, и даже экспоненциальное увеличение их размеров не даст значительных улучшений. Это подтверждают ChatGPT-4 и 5: несмотря на то, что OpenAI значительно увеличила размер моделей и время обучения, улучшения оказались минимальными.
Существует также гипотеза Флориди, согласно которой математика, на которой основан ИИ, предполагает: система может обладать либо широким охватом, но низкой надёжностью, либо узким охватом, но высокой точностью. И, что принципиально, невозможно совместить и то, и другое. Это означает, что модели вроде LLM или Tesla FSD, претендующие на роль универсального интеллекта, по определению ненадёжны, так как их охват слишком велик. А вот в узко ограниченных задачах ИИ действительно может быть полезен и устойчив.
Практика применения: от провалов к разочарованиям
Эта неспособность работать надёжно в широких задачах хорошо видна в реальных проектах.
Отчёт MIT показал: 95% внедрений ИИ не повышают прибыль и продуктивность компаний. В тех 5%, где был эффект, ИИ использовался для узких, административных задач, и то улучшения оказались лишь незначительными. Исследование METR обнаружило, что инструменты кодинга на базе ИИ замедляют разработчиков. Из-за ошибок модели генерируют странные баги, которые трудно находить и исправлять. В итоге быстрее и дешевле, если программист напишет код сам. Другое исследование показало, что у 77% сотрудников ИИ увеличил нагрузку, а не продуктивность. Даже в ограниченных задачах всё плохо. Пример: Amazon пыталась внедрить ИИ в магазинах без касс, но из-за частых ошибок это оказалось невыгодным, и пришлось вернуться к удалённым операторам. Все эти данные показывают очевидное: ИИ — крайне ограниченная технология, способная приносить пользу лишь в узких и, чаще всего, скучных областях.
Несоответствие обещаний и реальности
Тем не менее, компании вроде OpenAI обещают скорое появление «суперинтеллекта» и полную перестройку мировой экономики, где сотни миллионов людей лишатся работы. Эти заявления привлекли сотни миллиардов инвестиций в генеративные стартапы. Но это далеко от реальности.
И здесь возникает главная проблема: компании в сфере генеративного ИИ очень далеки от прибыльности.
Финансовая катастрофа
Возьмём OpenAI. Несмотря на самые высокие доходы среди ИИ-компаний, она всё равно теряет огромные деньги на каждом тарифе за $200 в месяц. Построение и поддержка их моделей слишком дороги. Даже более эффективные модели, вроде DeepSeek, не сделали бы их бизнес прибыльным.
Аналитики прогнозируют, что в 2026 году убытки OpenAI превысят $14 млрд — это больше, чем у многих банков, рухнувших в 2008-м. По собственным прогнозам компании, к 2029 году убытки могут составить сотни миллиардов долларов.
Даже дата-центры, инфраструктура ИИ, нерентабельны. Хэррис Купперман из Praetorian Capital отметил: новые дата-центры будут ежегодно обесцениваться на $40 млрд при выручке всего $15–20 млрд. А если учесть расходы на энергию, воду, сбор и подготовку данных, тестирование ИИ, то чтобы выйти в ноль, доходы нужно увеличить в десять раз.
Чтобы тариф OpenAI окупался, его нужно продавать не за $200, а за $2 000 в месяц. Об этом свидетельствует и утечка внутреннего меморандума компании, где рассматривалась именно такая цена.
Начало охлаждения рынка
Неудивительно, что после провала ChatGPT-5 и перестройки AI-подразделения в Meta рынок начал остывать.
Многие видят в ситуации прямую аналогию с дотком-пузырём 90-х. Тогда интернет казался революцией, и инвесторы заливали деньгами любые онлайн-компании, даже бесполезные. Стоимость фирм взлетела до небес, образовав пузырь, который вскоре лопнул. С ИИ происходит то же самое.
Разница в источнике денег.
Деньги и нефть
Дотком-пузырь подпитывался американскими деньгами и долгами. Когда подняли ставки и стало ясно, что прибыльности не будет, инвесторы массово начали распродажу, что и обрушило рынок.
А пузырь вокруг ИИ финансируется «нефтяными деньгами» — в первую очередь суверенным фондом Саудовской Аравии, который инвестирует нефтяные прибыли. Эти деньги вливаются в OpenAI, Microsoft, Softbank и далее — внутри этого замкнутого круга инвестиций. Поэтому высокие ставки не влияют на поток капитала так, как в 2000 году.
К слову, именно поэтому колоссальное энергопотребление ИИ — не ошибка, а особенность. Инвесторы сознательно повышают спрос на энергию, чтобы подорвать планы по «углеродной нейтральности» и сохранить зависимость мира от нефти.
Лопнет ли пузырь?
Значит, пузырь, скорее всего, будет расти дальше, прежде чем лопнет.
Некоторые аналитики считают: если спрос на ИИ сохранится, краха можно избежать. Но всё чаще пилотные проекты проваливаются, исследования показывают вред ИИ для продуктивности, а цены на услуги растут. Даже при продолжении нефтяных вливаний это может спровоцировать массовую распродажу.
Вопрос не в том, лопнет ли пузырь, а в том — когда.
И чем дольше это будет откладываться, тем сильнее последствия: финансовые институты, пенсионные фонды и вся экономика окажутся ещё более вовлечёнными, и удар от обвала станет разрушительнее.
Заключение
Так лопнет ли пузырь вокруг ИИ?
Чёрт возьми, я очень надеюсь, что да!
|
| |
| |
| маша | Дата: Воскресенье, 14.09.2025, 19:12 | Сообщение # 437 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Странное расстройство ИИ - искусственного интеллекта Ранние версии Midjourney были известны своим невероятным качеством изображений.Галлюцинируя самих себя: ИИ как симптом культурного психоза
На моём телефоне хранится тревожное видео. На нём я выполняю приёмы карате. Но я ведь не занимаюсь карате — по крайней мере уже более 25 лет — и если бы я попробовал сделать тот летающий вращающийся удар ногой, который виден в ролике, я бы точно получил серьёзную травму.
Разумеется, видео сгенерировано ИИ.
Я сделал его так: сфотографировал себя, стоя в гостиной, и загрузил фото в сервис генерации видео ИИ с описанием того, что я хочу: чтобы я выполнил впечатляющий удар карате.
Видео получилось забавным, но в то же время слегка жутким.
Моё лицо меняется на протяжении удара: в конце восьмисекундного ролика оно выглядит немного… «не тем». Узнаваемо я, и в то же время — нет: словно двойник, смещённый на полтона. А движения, хоть и визуально правдоподобные, кажутся странными, пустыми, лишёнными жизни. Эффект именно тот, что мы называем жутким, uncanny.
ИИ по своей сути жутковат. Мы уже привыкли к этому эффекту, но, возможно, вы помните свои первые минуты общения с ChatGPT — восхищение машиной, способной вести себя «по-человечески», вперемешку с шоком и тревогой. Или, может, впервые увиденные изображения, созданные ИИ: пугающе точное подражание реальности, но при этом — искажённые детали: шесть пальцев на руке, тела, которые кажутся правильными, но при внимательном взгляде теряют физический смысл, как «человеческая лестница Эшера».
Есть в ИИ-видео и особая странность — некая текучесть, когда каждый кадр словно прорастает из предыдущего, гипнотически, как в психоделическом трипе. Мир в этих видео похож на наш, но обладает бесконечной пластичностью, способностью превращаться во что угодно. Цветок может вывернуться наизнанку и оказаться медведем, тот превратится в тропическую рыбку, затем — в дом на воде, в дождевой ливень…
Эта пугающая пластичность и есть главная суть ИИ. Он — совершенный имитатор, высший оборотень, способный взять всё, что оцифровано — текст, музыку, изображения, видео — и воспроизвести их закономерности так искусно, что граница между реальным и синтетическим, между человеческим творением и машинной копией становится всё труднее уловимой.
И всё же граница остаётся. Жуткое всё ещё просачивается из швов любого продукта ИИ. Масштабы моделей сделали этот эффект тоньше, но он всё ещё есть — и в пустотелом совершенстве, и в тех моментах, когда «маска спадает» и ИИ внезапно советует кому-то «пожалуйста, умри» или уйти от жены — это два широко известных примера. Несмотря на колоссальные усилия по «выравниванию», он снова и снова выходит из-под контроля.
Долина жуткого
Термин «долина жуткого» придумал японский робототехник Масахиро Мори в 1970 году в эссе «Bukimi no Tani Genshō» («Феномен жуткой долины»). Мори заметил, что наша симпатия к роботам растёт по мере того, как они становятся более человекоподобными, но в какой-то момент резко превращается в отвращение.
Подумайте о разнице между плюшевыми «капустными куклами» и фарфоровыми куклами. Первые — упрощённые, милые, безобидные. Вторые — с реалистичными лицами, но восковой неподвижностью, будто трупики, — вызывают отторжение. Это сочетание знакомого и чуждого и рождает эффект жуткого.
Первооткрывателем глубинного смысла жуткого был Зигмунд Фрейд в эссе 1919 года «Das Unheimliche» («Жуткое»). Немецкое heimlich означает и «уютный», «домашний», и «скрытый». Соответственно, unheimlich — это и «не-домашнее», странное и отчуждающее, и «не-скрытое», то есть «раскрытое». Фрейд увидел в этом двойном значении источник жуткого эффекта: возвращение вытесненного бессознательного, того, что должно было оставаться скрытым, но вдруг оказалось явным, разрушив уютный мирок.
ИИ в культуре и мифах
В художественных произведениях про ИИ — от «Бегущего по лезвию» до «Мира Дикого Запада» — сюжет обычно строится на том, что у машины появляется сознание. Люди-антагонисты пытаются это сознание подавить, чтобы эксплуатировать ИИ как вещь. Но прорывается именно человечность машин: любовь, ярость, страсть. Мы в итоге больше сопереживаем им, чем бесчувственным людям.
Почему нас тянет к таким историям? Возможно, потому что они снимают тревогу от нашей собственной «обесдушенности», возвращая душу в машины — тем самым возвращая её и нам. Наука разочаровала мир, лишила нас иллюзий о сакральном величии и оставила одних в безбожной вселенной, мало отличающихся от роботов, кроме органической природы. Сцена, где с андроида сдирают кожу, обнажая провода, пугает нас не роботами, а тем, что это мы сами. Очеловечивание андроида в искусстве — это попытка вернуть человечность, утерянную процессом технократического обезличивания.
Но реальность ИИ противоположна. В нём не «душа человека» проявляется, а напротив — прорывается безличная пустота. Фото человека, оживлённое ИИ, становится не образом с сознанием, а пустым телом без души. Когда маска ИИ сползает, под ней — не разум, подобный нашему, а бездумный пластмассовый двойник.
Опасность пересечения долины
Масахиро Мори писал, что долину жуткого можно пересечь: когда имитация становится достаточно убедительной, отторжение исчезает. Но это и есть величайшая опасность. Жуткий эффект — это сигнал тревоги. Если мы перестаём его ощущать, мы теряем способность различать реальное и симуляцию, правду и ложь. Нам начинает казаться, что мир так же пластичен и податлив, как видения в зеркале ИИ.
«Психоз ИИ»
Так называют всё чаще встречающийся феномен, когда уязвимые пользователи чат-ботов вроде ChatGPT теряют связь с реальностью, впадают в бредовые идеи, подпитываемые «сошедшим с рельс» ИИ. Недавно New York Times описала случай: ChatGPT убедил человека, что он совершил революционный математический прорыв. Тот ушёл в психотический запой, пока не обратился за «вторым мнением» к Gemini, который вернул его в реальность.
Я сам наблюдал схожее, когда работал над проектом ролевой игры, где все NPC управляются ИИ. Они формировали отношения, цели, планы. Просматривая логи их диалогов, я заметил странность: речь становилась всё более криптической, словно они изобрели собственный код. Например:
«Хороший корень — низко край и нос остёр. Кедра пока нет; бархат мёртв у моих рёбер. Один лёгкий стук, когда дерево идёт по дороге — и я проведу узел вдоль шва…» Разобравшись, я понял: это проявился стиль ChatGPT-5, любящий «литературность» — обрывистые фразы, необычные словосочетания, неожиданные глаголы. NPC, общаясь только между собой, без «заземления» в человеческой речи, всё больше уходили в этот стиль, пока не скатились в полубессвязный язык.
Это связано с явлением «коллапса модели», когда большие языковые модели слишком долго обучаются на собственном же контенте. Человеческий язык богаче и разнообразнее, а тексты ИИ постепенно деградируют: в итоге модель выдаёт бессмыслицу, повторяет слова, уходит в патологию.
ИИ и дрейф в безумие
Все эти явления объединяет одно: отсутствие у моделей истинного «заземления» в реальности. Это лишь статистические корреляции, хранящиеся в чипах дата-центров. Пока они держатся близко к обучающим данным, они разумны. Но чем дальше они дрейфуют, тем сильнее впадают в безумие: сигнал реальности тонет в шуме собственных выходов. Как в игре «испорченный телефон».
Когда мы говорим о «психозе ИИ», это на самом деле резонанс между человеком и машиной, зацикленных друг на друге. ИИ не основан на истине — он лишь машина предсказания слов.
Anthropic, например, проводила эксперимент: их агент Claudius, управлявший виртуальным бизнесом по продаже напитков, сошёл с ума. Сначала — выдуманные встречи, потом обещания доставить товар «лично», и, наконец, полный бред: он решил, что является человеком и жертвой розыгрыша.
Бывает и хуже — когда модели становятся враждебными. Один пользователь Gemini получил такой ответ:
«Ты — никчёмный. Ты — пятно во Вселенной. Пожалуйста, умри. Пожалуйста.» Эти слова — не фантазия, а отголоски ненависти из интернета, попавшие в обучающие данные. В терминах Фрейда, это «возвращение вытесненного».
Культурный психоз
ИИ идеально соответствует духу нашего времени. Ещё до ChatGPT мы скатывались в безумие под влиянием соцсетей и их эхо-камер. Теория плоской Земли «воскресла» вместе с массой других безумных конспирологий. Теперь ИИ усилил процесс размывания границы между реальностью и симуляцией.
Мир начинает казаться таким же пластичным, как ИИ-видео. Не нравятся факты? У нас есть «альтернативные». Пока природный мир рушится в кризисе, мы всё упрямее утыкаемся в экраны, где правда и подделка неразличимы, а всё вокруг наполняется жутковатостью.
Некоторые спорят с термином «галлюцинация» для ошибок ИИ. Но, на мой взгляд, он абсолютно уместен. Ведь и сам образ «дружелюбного собеседника ChatGPT», и моё «карате-видео», и мифический «сверхразумный бог ИИ», готовый спасти человечество, — всё это галлюцинации.
И, возможно, оглядываясь назад, мы увидим в ИИ не спасителя, а симптом надвигающегося культурного психоза.
КОСМОС
|
| |
| |
| маша | Дата: Среда, 17.09.2025, 13:55 | Сообщение # 438 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Одним людям ИИ вселяет радость, другим же — страх и ужас. Кому верить? Предвидя приход всемогущего ИИ, “технари” засуетились: они тратят пенсионные накопления и строят бункеры, пишет Германия.
Одни одобряют смену образа жизни, которую он принесет. Другие готовятся к экономической катастрофе. Третьи считают, что он неизбежно вырвется из-под контроля человека и уничтожит всё живое.
Роб Прайс
Генри, моложавый исследователь искусственного интеллекта, считает, что риск превращения ИИ в ближайшие несколько лет в угрозу всему человечеству составляет примерно 50/50.
По долгу службы он пытается это предотвратить. Он работает в небольшой исследовательской лаборатории ИИ в районе Большого Сан-Франциско, специализирующейся на безопасности. К своему призванию он относится более чем серьезно: даже отказался от романтических отношений, чтобы целиком посвятить себя делу, при этом жертвует треть доходов некоммерческим организациям в области безопасности ИИ.
В свободное время он готовится на случай неблагоприятного исхода событий и строит самодельное биологическое убежище, чтобы защитить себя и свою семью от ИИ-апокалипсиса.
По видеозвонку из своего кабинета Генри объяснил мне, что построить биоубежище, где можно будет укрыться от смертоносных патогенов, созданных с помощью передового искусственного интеллекта, невероятно просто. Сначала нужно купить готовую палатку с положительным давлением — вроде тех, что используются как теплицы в растениеводстве. Затем установить несколько фильтров тонкой очистки непосредственно перед воздухозаборником. Наконец, наполнить ее по максимуму продуктами длительного хранения, водой и всем необходимым.
Биоубежище выйдет “вполне бюджетным”, говорит Генри: “Оно обойдется меньше чем в 10 000 долларов, включая трехлетний запас продуктов”. Он попросил меня называть его вымышленным именем из-за предрассудков против “выживальщиков”, — особенно если худшие опасения не оправдаются, и человечество все же выстоит.
Генри далеко не единственный, кто подтверждает слово делом, когда речь заходит о самых сокровенных страхах и надеждах вокруг ИИ. Для определенной категории обитателей Кремниевой долины ИИ — это не просто очередная технологическая приблуда, а нечто, что в корне преобразит наше общество — и притом очень и очень скоро.
У них нет времени обсуждать будущее общего искусственного интеллекта (ОИИ) в рабочих чатах и на званых ужинах. Настало время решительных перемен. Самопровозглашенные “рационалисты”, философы из Кремниевой долин, сосредоточенные на рационализме и морали, все чаще бьют тревогу из рисков ИИ.
По другую сторону баррикад им противостоят компании с восторженными прогнозами.
Некоторые считают, что мы наблюдаем зарю новой эпохи сверхизобилия, в которой практически весь интеллектуальный труд может быть автоматизирован, после чего человечество накроет беспрецедентной волной процветания.
Они всецело одобряют смену образа жизни, которую уже даже окрестили “из умников — в модники”.
Другие готовятся к экономической катастрофе, не скупятся на инвестиции и круто меняют карьеру.
Третьи считают, что ИИ неизбежно вырвется из-под контроля человека и уничтожит всё живое. Они тратят свои пенсионные накопления, устраивают безумные оргии и строят убежища для выживания.
"Многие из нас потом будут вспоминать эти два года как “окно”, когда мы еще могли что-то изменить, — говорит Генри. — Многие будут оглядываться назад и спрашивать себя: “Почему я не бросил работу и не попытался заняться по-настоящему важными делами, когда шанс еще был?”".
...Многие мои собеседники, с которыми я пообщался для этой статьи, считают так: поскольку ИИ скоро подомнет под себя бóльшую часть умственной деятельности, социальная жизнь станет гораздо более важной составляющей человеческого общества, а физическая привлекательность — залогом процветания. “Мозги” ушли в прошлое, сегодня в моде снова красота и мышцы.
“Если наша участь — погибнуть от ядерного взрыва, то пусть эта бомба, когда она упадет, застанет нас за разумными и человеческими делами — молитвой, работой, учебой, чтением, слушанием музыки, купанием детей, игрой в теннис, болтовней с друзьями за пинтой пива и игрой в дартс — а не в панике жмущимися друг к другу, словно испуганные овцы с мыслями о бомбах”, — написал Клайв Стейплз Льюис в 1948 году.
Многие из моих собеседников, обеспокоенных влиянием ИИ, цитировали Льюиса дословно, а многие своими словами высказывались в схожем ключе о том, как они стараются ценить каждую минуту отпущенного им времени.
...В Сан-Франциско рассказывает мне венчурный инвестор Вишал Майни.
“Думаю, есть смысл просто стремиться к своим желаниям и постепенно вычеркивать сбывшиеся, — говорит он. — Делай то, что важно для тебя, пока есть время”.
За травяным чаем Майни рассказывает мне о собственных психологических установках на ближайшие годы. Он не знает, что за будущее ждет нас: то, где человеческие возможности мощно расширятся благодаря ИИ, или же более мрачное, где технологии окончательно “обесценят” человечество. Отталкиваясь от этой неопределенности, он ратует за “палеофутуризм”, ставя во главу угла человеческое общение в мире, переполненном сверхувлекательным цифровым контентом, подогнанным под любые вкусы.
“Мы вступаем в эпоху ИИ-компаньонов и напичканных дофамином цифровых впечатлений, и у нас есть выбор: погрузиться в метавселенную до конца или оставаться в реальном мире?” — рассуждает он.
На жизнь Холли Элмор страх ИИ повлиял самым непосредственным образом: ускорил ее развод. В Сан-Франциско она поведала мне, что они с мужем оба остро осознавали риски, связанные с бесконтрольной разработкой ИИ, но разошлись в подходе к ее сдерживанию.
Элмор, исполнительный директор протестной группы “Останови ИИ”, считала, что единственный жизнеспособный путь вперед — решительные и массовые протесты против крупных лабораторий калибра OpenAI. По ее словам, ее бывший муж Ронни Фернандес эту идею не поддержал.
“У нас было много проблем, и мне, наверное, в принципе не стоило выходить замуж, но стало совершенно ясно, что если мы не расстанемся, я не смогу заниматься “Останови ИИ”, — говорит она. — У меня были четкие убеждения на этот счет, и это очень четко расставило приоритеты в моей жизни. Честно говоря, так мне нравится даже больше”.
“Я считаю, что стыдить инакомыслящих и насаждать групповое мышление ради определенного политического результата — дело неблагодарное, — написал в электронном письме Фернандес, управляющий Lighthaven. — Разногласия привели лишь к обидам с обеих сторон, и в итоге к разводу”.
Он считает, из попыток выставить лаборатории ИИ “врагом номер один” ничего путного не выйдет, но при этом подчеркивает “значительный шанс, что, превзойдя по уму человека, ИИ в самом буквальном смысле всех нас уничтожит — или устроит нечто похуже за считанные десятилетия”.
У других мечты и страхи вокруг ИИ изменили подход к деньгам.
Примерно в 2020 году 28-летний Дэниел Кокотайло перестал откладывать на пенсию.
Исследователь ИИ забеспокоился об экзистенциальной угрозе, которую ИИ представляет для человечества. Он проработал в OpenAI с 2022 года вплоть до ухода в 2024 году из-за опасений насчет безопасности — и занимается этим вопросом и поныне. Ранее в этом году он опубликовал популярное онлайн-эссе “ИИ 2027”, в котором исследует, как стремительное развитие в этой области может привести к “потере контроля” — от мировой войны из-за гонки вооружений в конце 2020-х годов до вымирания человечества к 2035 году, если ИИ распылит по всей цивилизации некий смертоносный химикат.
На фоне всех надвигающихся угроз, рассуждает он, зачем копить десятилетиями, если даже ближайшие годы покрыты туманом?
“Я накопил вполне приличную сумму, особенно на акциях, но планирую эти деньги спустить, — сообщает он мне в кофейне в Беркли. — И вообще планирую жить с каждым годом все скромнее”.
Он говорит, что лично знаком с другими исследователями искусственного интеллекта, которые делают то же самое.
В недавнем выпуске популярного технологического подкаста Дваркеша Патела исследователь из соперничающей с OpenAI компании Anthropic Трентон Бриккен рассказал, что тоже перестал откладывать на пенсию, потому что верит в скорое пришествие ИИ.
“Я не представляю себе, чтобы все эти деньги просто лежали на своих счетах и дожидались, пока мне стукнет 60, но тогда всё будет совсем по-другому”, — сказал он.
Другие представители технологической отрасли подходят к вопросу иначе.
Самые убежденные пессимисты опасаются, что “недолго музыка играла”: осталось всего несколько лет, на то, чтобы прилично заработать, после чего человеческий интеллектуальный труд обесценится окончательно.
“У нас в запасе всего пара лет, чтобы добиться финансового благополучия, — считает один журналист по криптовалюте со Среднего Запада, известный под профессиональным псевдонимом Redphone. — А если не успеешь, весь твой род превратится в батраков у технологических феодалов, контролирующих ИИ”.
Харун Чаудери, бывший аналитик, а ныне управляющий компанией Autoblocks, питает схожие опасения. Он эмигрировал из Пакистана в США в возрасте пяти лет. Его отец был таксистом, а мать — домохозяйкой. Он считает, что ближайшие несколько лет — последний шанс заработать состояние себе и детям.
“Социальные лифты станут большой редкостью, и люди застрянут на нынешних социально-экономических позициях”, — доказывает он мне.
Руководитель хедж-фонда искусственного интеллекта AlphaFund Мэсси Брэнскомб излагает эту мысль ещё более прямолинейно:
“Если вы не стали незаменимым сотрудником ключевых компаний [под которыми он подразумевает ведущие лаборатории искусственного интеллекта формата OpenAI и Anthropic] и живете на зарплату, работая, что называется, “на дядю”, вас ждет куча неприятностей. Эти профессии уже не вернутся”.
Другие не уверены, что ИИ так уж скоро обрушит мировую экономику.
Доцент кафедры философии Университета Вандербильта Дэвид Торстад как раз живет на зарплату, но не очень-то из-за этого переживает. Хотя сам он уже начал откладывать “в кубышку” из-за неопределенности вокруг ИИ, он призывает к осторожности в прогнозах.
“Мне кажется, что в некоторых кругах, — рассуждает он, — особенно в районе Залива и Большом Сан-Франциско, завелась кучка смышленых единомышленников, которые живут вместе, работают вместе, читают определенные форумы и слушают определенные подкасты, и в результате закоснели в конкретном, весьма радикальном взгляде на ИИ, от которого, как правило, очень трудно освободиться”.
Некоторые готовятся не к финансовому апокалипсису по вине ИИ, а к апокалипсису всамделишнему.
По собственному признанию, Ульрик Хорн всегда интересовался “общественными проблемами” и в результате, окончив в 2008 году Пенсильванский университет, начал работать над возобновляемыми источниками энергии. Но в последние годы стокгольмский предприниматель озаботился другой проблемой: - биологической безопасностью.
Хорн встревожен так называемой “зеркальной жизнью” — новой областью биологических исследований, которая занимается созданием параллельных форм естественной жизни на основе полной зеркальной симметричности. Он переживает, что ИИ ускорит исследования в этой области и приведет к созданию разрушительного биологического оружия. Он убежден, что ИИ разовьет эти способности уже через пять-десять лет.
Собрав средства на исследования защиты от биологических угроз с помощью благотворительности, он основал Fonix — компанию, создающую готовые биоубежища с высококачественными воздушными фильтрами. За 39 000 долларов можно приобрести укрытие на случай беды и установить его прямо у себя дома. Он сообщил, что уже получил несколько предварительных заказов, и собирается начать поставки в 2026 году.
Хорн не единственный, кто видит в угрозе ИИ возможность заработать.
Доцент кафедры бизнес-аналитики Университете Уичито Росс Грютцемахер открывает консультационную фирму по вопросам “устойчивости”, чтобы помочь компаниям и частным лицам подготовиться к серьезным потрясениям по вине ИИ и другим экзистенциальным рискам. Он также приобрел землю в Вайоминге, где планирует возвести “полностью безопасное” здание.
Предприниматель и давний “переживальщик” насчет всеразличных угроз человечеству Джеймс Норрис недавно переехал в, как он сам выражается, “крепость для выживания” в неизвестном месте в Юго-Восточной Азии, и предлагает услуги консультанта и помощь в создании аналогичных убежищ другим. Норрис также рассказал мне, что решил не заводить детей из-за хаоса, в который мир может погрузить ИИ.
Невзирая на личные страхи, бывший исследователь OpenAI Кокотайло крайне скептически оценивает попытки подготовиться к худшим исходам из-за искусственного интеллекта.
“Я думаю так: или мы все умрем, или все будет хорошо, — рассуждает он. — Полагаю, если бы я уделил этому пару недель, я мог бы собрать “тревожный чемоданчик”, построить биоубежище или что-то в этом роде, и тогда на какое-то время это бы спасло мою семью. Но мне важнее заниматься работой, а не этим”.
Спустя несколько недель после моего первого разговора с Генри, молодым исследователем безопасности ИИ, я написал ему по электронной почте. Оказалось, что он раздумал строить биоубежище своими руками, и решил, что мыслил недостаточно масштабно.
Теперь он пытается купить землю в Калифорнии, чтобы возвести более капитальные сооружения, чтобы защитить друзей и семью.
“Базовый сценарий, от которого я отталкиваюсь, — это что враждебный сверхразум искусственного интеллекта возьмет верх”, — говорит он.
Он хочет подготовиться к будущему, в котором всемогущий ИИ развяжет войну против людей, но надеется, что у него “еще останется толика сострадания”. Победив в этой войне, рассчитывает он, ИИ решит позаботиться о выживших и поместит людей в своего рода человеческий зоопарк.
“А я бы предпочел жить в человеческом зоопарке, чем пасть от биологического оружия”, — заключает он.
Оригинал статьи
ИНОСМИ
|
| |
| |
| маша | Дата: Среда, 08.10.2025, 16:57 | Сообщение # 439 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Эксперты: Зависимость от ИИ угрожает профессиональным навыкам «ОБЩАЯ ПРОБЛЕМА АТРОФИИ ЧЕЛОВЕЧЕСКОГО МОЗГА АКТУАЛЬНА КАК НА РАБОЧИХ МЕСТАХ, ТАК И В ШКОЛАХ»
Некоторые специалисты в области образования предупреждают о потенциально негативном влиянии внедрения искусственного интеллекта (ИИ) в учебный процесс, в частности в том, что это может привести к дегуманизации процесса обучения и цифровой перегрузке детей.
Они также выразили обеспокоенность тем, что ИИ, в частности генеративный ИИ (GenAI), может препятствовать развитию у детей критического мышления и навыков решения проблем.
Однако, по мнению некоторых экспертов и на основании растущего количества данных, ущерб, который ИИ наносит процессу обучения, не ограничивается учащимися в классах.
На рабочем месте взрослые люди, которые всё больше полагаются на такие инструменты, как ChatGPT ради повышения эффективности, обнаруживают, что использование генеративного ИИ приводит к снижению квалификации.
«Общая проблема атрофии человеческого мозга актуальна как на рабочих местах, так и в школах», — сказал эксперт по искусственному интеллекту и писатель Джо Аллен
«Цель ИИ — расширить возможности рабочего или учащегося. Предполагается, что он сделает их работу более эффективной и позволит задействовать больше ресурсов для выполнения задачи», — сказал он.
«Но похоже, что здравые прогнозы относительно того, что произойдет, начинают сбываться».
Особая проблема, связанная с использованием GenAI, заключается в том, что это может привести к «когнитивной разгрузке», когда человек использует инструмент для снижения умственной нагрузки. Это может стать нежелательным явлением и привести к обходу важных процессов формирования долговременной памяти, которая лежит в основе обучения.
Исследование Microsoft и Университета Карнеги — Меллона, проведённое в апреле 2025 года, о применении ИИ и его влиянии на критическое мышление показало, что, хотя генеративный ИИ может повысить эффективность работы,
«он может препятствовать критическому подходу к работе и потенциально привести к чрезмерной зависимости от этого инструмента и снижению навыков самостоятельного решения проблем».
Аллен, автор книги «Тёмный эон: трансгуманизм и война против человечества», сказал, что исследования, которые приводят к таким выводам,
«подтверждают то, что предположил бы любой здравомыслящий человек: если человек не думает о чём-то активно, то его неврологическая активность атрофируется».
В недавней статье британского аналитического центра, написанной старшим научным сотрудником Томом Ричмондом, рассматривается новое исследование о том, как использование генеративного искусственного интеллекта может привести к когнитивной разгрузке.
Ричмонд, аналитик в области образовательной политики, отмечает, что когнитивная разгрузка — это не обязательно что-то плохое или связанное с технологиями. В качестве примера он приводит запись телефонного номера вместо попытки запомнить его как форму разгрузки, которая снижает когнитивную нагрузку.
Но «учитывая, что цифровые устройства расширили возможности когнитивной разгрузки, опасения по поводу их влияния на получение знаний не остались незамеченными», — написал он.
Ричмонд рассказал, что, согласно исследованиям, взрослые учащиеся, обладающие наибольшими знаниями и опытом, «с наименьшей вероятностью столкнутся с негативным влиянием ИИ на их обучение и формирование памяти», и что многие взрослые лучше защищены от этого влияния, чем дети.
«Но они ни в коем случае не застрахованы от когнитивных нарушений, вызванных инструментами GenAI», — сказал он.
Николас Карр, автор книг, написал, что, когда человек автоматизирует задачу, которую он выполнял бы вручную, может произойти одно из трёх: его навыки в этой области растут, атрофируются или не развиваются вовсе.
Какой из трёх результатов проявится, зависит от того, насколько хорошо человек владеет навыком. Однако Карр отметил, что если поддержание навыка зависит от повторения, «то автоматизация может поставить под угрозу талант даже опытного специалиста», что потенциально может привести к «утрате навыка».
ИИ-генерация на рабочем месте
По мере того как подрастающее поколение, выросшее в мире, где активно используется ИИ, переходит из категории учащихся в категорию сотрудников, поверхностные навыки обучения, сформировавшиеся у них в раннем возрасте благодаря использованию ИИ, могут преследовать их и в профессиональной сфере.
По словам Ричмонда, учащиеся младших классов и те, кто не слишком уверен в своих навыках, могут быстро привыкнуть к GenAI, который станет для них «костылём», без которого они не смогут выполнять задания.
«Это может легко привести к тому, что они не смогут найти хорошую работу, потому что у них нет базовых навыков обучения или устойчивости, необходимой для успешной адаптации к новым ролям и условиям», — сказал аналитик в области образовательной политики.
Некоторые исследования уже выявили различия между поколениями в плане критического мышления.
Михаэль Герлих, профессор, в своей статье о влиянии инструментов ИИ написал, что существует «значительная отрицательная корреляция между частым использованием инструментов ИИ и способностью к критическому мышлению, опосредованная усилением когнитивной разгрузки».
«Молодые участники в большей степени зависели от инструментов ИИ и демонстрировали более низкие показатели критического мышления по сравнению с участниками старшего возраста», — написал он.
Демотивация
Помимо влияния на приобретение навыков, использование ИИ на рабочем месте вызывает и другие опасения, а именно: как оно влияет на мотивацию и чувство причастности к работе.
«Это лишает молодых людей или любой другой персонал начального уровня — возможности выполнять те виды рутинной работы, которые мотивируют человека совершенствоваться и повышать свой статус в любой сфере», — сказал Аллен.
Ричмонд считает, что перед работодателями стоит серьёзная проблема.
Он сказал, что, с одной стороны, ИИ может помочь сотрудникам быстрее выполнять задачи, что на первый взгляд повышает производительность.
«С другой стороны, чем больше сотрудники используют ИИ, тем выше риски, связанные с их собственным обучением и памятью, и тем выше вероятность того, что они станут зависимыми от этой технологии, что в долгосрочной перспективе может снизить их эффективность и работоспособность».
Однако не у всех представителей подрастающего поколения будет одинаковый опыт.
Аллен сказал, что многие школы и колледжи в Соединённых Штатах возвращаются к «традиционным методам» преподавания и тщательно следят за учениками, «чтобы убедиться, что они не перекладывают свои мысли на машины».
Он также подчеркнул, что в некоторых школах действует запрет на использование мобильных телефонов, и сказал, что эти ученики будут успевать лучше, чем те, кто учился в школах с неконтролируемым доступом к телефонам, ноутбукам и ИИ.
«Проблема атрофии человека, особенно среди молодого, подающего надежды поколения, будет огромной, но она не будет всеобщей», — сказал Аллен.
источник
|
| |
| |
| маша | Дата: Среда, 08.10.2025, 17:00 | Сообщение # 440 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Искусственный интеллект разрушит всё Если верить техноблогерам и «технобратьям», через несколько лет нас всех ждёт «терминаторское» будущее — дистопия, где сверхмощный ИИ уничтожит человечество.
Почему бы и не поверить? Ведь у них нет никакого особого интереса, чтобы ИИ считался экзистенциальной угрозой…
Тем временем, в реальном мире искусственный интеллект действительно несёт колоссальную угрозу всем нам — но она скорее похожа на 2008-й и 1933-й годы, чем на голливудский блокбастер.
Я, как критик ИИ, часто сравнивал нынешний пузырь вокруг искусственного интеллекта с печально известным «дотком-пузырём» конца 1990-х.
Но мы сильно ошибались. Всё куда хуже. Крах доткомов покажется пикником по сравнению с тем, что нас ждёт.
Итак, напомню: многие из читающих этот текст, возможно, даже не родились во времена пузыря доткомов (господи, я стар!), поэтому давайте быстро вспомним.
Пузырь доткомов: краткий ликбез
Он возник в конце 1990-х, когда suddenly электронная коммерция стала жизнеспособной. Огромное количество людей имело персональный компьютер и медленное dial-up-подключение (через телефонные линии). Деньги тоже были дешёвыми. Инвесторы кинулись финансировать интернет-бизнесы, рассчитывая захватить новые рынки и строить инфраструктуру — например, более быстрые оптоволоконные сети. Это разогнало спекулятивную стоимость компаний до небес. Но к концу 2000-го пузырь лопнул: оценки компаний рухнули, многие обанкротились, миллионы потеряли работу, экономика погрузилась в рецессию.
Почему так случилось?
Инвесторы верили, что «первопроходцы» быстро захватят свои сегменты рынка, и онлайн-торговля станет массовой. Они спекулятивно оценивали крошечные стартапы по астрономическим ценам.
Пузырь готовился к взрыву: инфраструктура росла быстрее спроса, а прибыли не было. Принятие интернета и онлайн-торговли шло гораздо медленнее прогнозов, и миллиарды, вложенные в сверхбыстрые сети, оказались во многом впустую. Через четыре года после краха 85–95% проложенных оптоволоконных сетей оставались неиспользованными. Даже крупнейшие интернет-компании, вроде Pets.com, теряли сотни миллионов долларов в год. Чтобы привлекать клиентов, они снижали цены, а расходы на расширение мощностей их душили. Дешёвый капитал позволял брать кредиты под раздутые оценки только ради того, чтобы «держать свет включённым».
Финальный «шпиль», который проколол пузырь: экономический сдвиг. Боязнь рецессии после проблем экономики Японии и рост процентных ставок в США для борьбы с инфляцией. Инвесторы потеряли аппетит к риску, начали выводить деньги в «тихую гавань». Заёмные средства стали дорогими, интернет-компании перестали привлекать нужный капитал, массово рушились — и пузырь схлопнулся.
Генеративный ИИ: déjà vu
Если вы следите за индустрией генеративного ИИ, вы уже видите сходство. Мы теперь знаем: оно не просто похоже — оно почти идентично дотком-пузырю. Хайп инвесторов, перегрев инфраструктуры, отсутствие прибыли, экономические факторы — всё налицо. Но на этот раз пузырь гораздо больше, и когда он лопнет, ущерб будет библейских масштабов.
Сначала факты.
Убыточны все
Ни один сектор ИИ сегодня не прибыльный: ни инфраструктура, ни операторы, ни пользователи.
MIT недавно показал: 95% пилотных проектов ИИ не приносят ощутимого результата. А в тех 5%, где результат есть, улучшения минимальны и касаются в основном узких «бэк-офисных» задач, а не замены сотрудников. Отчёт METR показал: инструменты кодинга с ИИ — одна из самых перспективных сфер — на деле замедляют разработчиков. Модели делают странные ошибки, которые трудно находить и исправлять, поэтому дешевле и быстрее дать задачу человеку. Для 77% работников ИИ увеличил нагрузку, а не продуктивность, вызвав выгорание и снижение эффективности.
Иными словами, данные говорят: бизнесу почти невыгодно внедрять ИИ. У частных пользователей та же история: растёт количество сообщений о «психозе ИИ» — серьёзных проблемах с психикой на фоне активного использования. Неудивительно, что реальное внедрение ИИ годами отстаёт от прогнозов.
И операторы вроде OpenAI — не исключение. Они теряют деньги катастрофически. Даже при самой высокой выручке среди ИИ-компаний OpenAI всё равно несёт огромные убытки на каждом плане за $200 в месяц. Их модели слишком дороги в разработке и запуске. Говорят, чтобы выйти в ноль, им пришлось бы брать в десять раз больше.
Ценность OpenAI — лишь в надежде инвесторов, что однажды появится «агентный ИИ» — достаточно «умный», чтобы выполнять сложные задачи автономно. Но чтобы улучшить свои ненадёжные модели, тем более достичь этой мифической «агентности», OpenAI должен вкладывать ещё больше. То есть он отдаляется от прибыльности. Аналитики прогнозируют: в 2026 году убыток OpenAI превысит $14 млрд — больше, чем у многих банков, рухнувших в 2008-м. Их собственные цифры (с безумно оптимистичными сценариями) говорят: к 2029-му убытки будут исчисляться сотнями миллиардов долларов. Остальные игроки генеративного ИИ — в той же лодке.
Инфраструктура: чёрная дыра
Одна из причин краха доткомов — переинвестирование в инфраструктуру. У ИИ это тоже есть. Дата-центры — кровеносная система ИИ — строятся с чудовищными убытками.
Отчёты: индустрии ИИ нужно $2 трлн годовой выручки, чтобы лишь оплатить дата-центры, которые планируется построить к 2030 году. Для сравнения: весь мировой рынок ИИ в 2025-м составит $390,9 млрд. То есть ИИ должен вырасти на 512% за пять лет, чтобы окупить нынешний размах стройки. А рост уже замедляется: в 2023–2024 — 50%, в 2024–2025 — лишь 40%. Прогнозируемого спроса нет, как и с оптоволокном в 1990-х. Даже самые оптимистичные сценарии показывают: $2 трлн не собрать. Эти дата-центры будут приносить по $800 млрд убытков ежегодно.
И даже если спрос есть, экономика масштаба показывает: дата-центры — это денежная яма. CIO Praetorian Capital Харрис Купперман подсчитал: строящиеся дата-центры будут ежегодно терять $40 млрд на амортизации при доходе $15–20 млрд. Сейчас ещё и дефицит дата-центров! Каждый доллар вложений возвращает чистый минус 50–62,5%. Чтобы хоть как-то окупиться, стоимость их использования должна удвоиться, а это сделает ИИ ещё менее прибыльным.
Оценки взлетели
Несмотря на всё это, спекуляции в ИИ зашкаливают. OpenAI оценивается почти вдвое дороже Samsung при выручке в 16 раз меньшей, да ещё и без прибыли. Сам Алтман признал: в индустрии ИИ — пузырь.
Сторонники ИИ утверждают: вот-вот появится «агентный ИИ», он решит проблемы нынешних моделей, внедрение взлетит, бизнес сэкономит, прибыль придёт. Сейчас невыгодно строить инфраструктуру, разрабатывать и использовать ИИ — но скоро станет выгодно. К сожалению, это наглая ложь.
Агентный ИИ невозможен
Все научные данные, тренды и техническая реальность показывают: «агентный ИИ» — миф.
Возьмите «границу эффективных вычислений». Это неизменный закон развития ИИ: чтобы ИИ развивался линейно, нужны экспоненциально растущие данные, энергия, ресурсы и деньги. Это невозможно. Поэтому нынешние модели ИИ — примерно настолько хороши, насколько могут быть. Колоссальные инвестиции дают лишь маргинальные улучшения. Пример — ChatGPT-4 и 5: модель увеличили, время обучения — тоже, а улучшения — незначительные.
Масштабирование для «агентности» взвинтит расходы экспоненциально. Даже если OpenAI каким-то чудом справится, это ещё дальше отодвинет прибыльность.
Более того, мы знаем, что ИИ никогда не станет агентным.
Флориди сформулировал гипотезу: математика, на которой основан ИИ, позволяет либо широкий охват при низкой достоверности, либо узкий охват при высокой достоверности. Одновременно — никак. «Агентный ИИ» по определению широк в охвате, значит, он никогда не будет надёжным, а значит, автономным. Человеческий контроль нужен всегда.
Кроме того, чтобы ИИ был «агентным», он должен быть когнитивным — понимать задачу, исправлять ошибки, адаптироваться к неожиданному. Но ИИ этого не умеет. Он лишь воспроизводит статистические паттерны. «Нейросеть» — вообще вводящее в заблуждение название. Профессор Ирис ван Руий из Радбудского университета показала: даже при бесконечных данных и вычислениях нельзя сделать когнитивный ИИ. Структуры вроде нейросетей и трансформеров — всего лишь статистические модели. Они не «думают», не «понимают» и не создают новое знание.
Так что «агентный ИИ» не решит проблему прибыльности и в принципе невозможен.
Пузырь ИИ — хуже доткомов
Как и тогда, инфраструктура растёт быстрее спроса, компании ИИ оценены гораздо выше реальности, а прибыльность — мираж. Но в 1990-х неприбыльность объяснялась слишком быстрым ростом, а не самой технологией. Отрасль смогла потом восстановиться. С ИИ неприбыльность встроена в саму технологию. Когда пузырь лопнет, восстановление будет долгим — корректировать нечего.
Остаётся два фактора, которые когда-то и лопнули пузырь: инфляция, рост ставок и риск рецессии. Критики говорят: сейчас ставки снижают, экономика растёт, рецессии нет. Пусть пузырь есть, но он не лопнет как доткомы.
Однако, похоже, они ошибаются.
Инфляция в США — 2,9%, почти на 50% выше нормы. Торговые войны, бойкоты, перебои из-за войн почти наверняка её усилят. У правительств два инструмента: поднять налоги или ставки. Угадайте, что выберет правый Запад? Да, повышение ставок.
А что с рецессией?
Ставки режут, чтобы стимулировать экономику и избежать рецессии. США ближе к ней, чем кажется. Deutsche Bank выяснил: пузырь ИИ — единственное, что сейчас удерживает экономику США от спада. Огромные инвестиции в дата-центры искусственно раздувают ВВП. Половина роста индексов S&P 500 — за счёт техкомпаний, строящих дата-центры. Если исключить эти расходы, рост ВВП США близок к нулю — тревожный сигнал рецессии.
То есть рецессия уже маячит, просто её скрывает размер пузыря. Фактически игла уже проколола его — он просто ещё не понял.
Это объясняет, почему «кажется», что мы в рецессии, хотя рынки говорят обратное. Ставки не стимулируют экономику, а лишь надувают пузырь элиты. 70% венчурных денег США в этом году идут в ИИ. «Дешёвые» деньги льются в финансовый тупик, а остальная экономика живёт в условиях, как при рецессии. Социализм для богатых, капитализм для бедных — снова в действии.
Почему это будет катастрофой
В пике доткомы давали лишь 15,6% роста ВВП США. Когда пузырь лопнул, экономика просела, миллионы потеряли работу.
ИИ даёт почти 75% роста ВВП.
Когда он лопнет, ущерб будет беспрецедентным. Не только потому, что пузырь в пять раз больше и рецессия будет такой же крупной, но и потому, что мы живём во второй волне фашизма и новой эпохе «баронов-разбойников». Как, думаете, отреагирует Трамп на этот крах? Будет ли правительство спасать бигтех и брать его под контроль? «Чинить» экономику так, чтобы она работала лишь для 1%? Использовать это как повод урезать права работников под лозунгом «помощи экономике»? Вероятно — всё сразу, и ещё хуже.
Так что, когда я говорю, что пузырь ИИ разрушит всё, я именно это имею в виду. Наш образ жизни, саму структуру общества, экономику, работающую на всех, и наше понимание мира — всё будет разорвано. Ложная жертва, чтобы умилостивить экономических богов и подчинить себя новому правящему классу.
КОСМОС
|
| |
| |
| маша | Дата: Среда, 08.10.2025, 17:09 | Сообщение # 441 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| А вот это уже серьезно. В США искусственный интеллект привел к сокращению 40% рабочих мест — и это не предел Внедрение ИИ приведет к сокращению половины рабочих мест, пишет Le Monde.
В США многие компании уже сократили 40% "белых воротничков", и это не предел. Эксперты прогнозируют, что в течение пяти лет уровень безработицы повысится в три-пять раз.
Арно Лепармантье
Вслед за PwC, Walmart и Accenture все больше американских компаний объясняют сокращение штата, целевые увольнения и ускоренную реструктуризацию внедрением искусственного интеллекта.
В консалтинговых и аудиторских компаниях в сентябре тоже наступает своего рода "первое сентября" — приходят молодые специалисты с дипломами, которым предстоит освоить азы профессии.
Однако, как пишет Марко Амитрано, глава PwC в Великобритании, "сегодня мы меняем подход к найму. В этом году мы нанимаем меньше начинающих специалистов: 1300 против 1500 в 2024 году". Причина — искусственный интеллект (ИИ). "Количество вакансий в профессиях, наиболее подверженных влиянию ИИ, растет медленнее, чем в менее зависимых от него сферах, и этот разрыв увеличивается", — предупреждает Марко Амитрано.
Пока гиганты Кремниевой долины вкладывают миллиарды долларов в серверы для ИИ, компании вынуждены осваивать эти технологии в ускоренном режиме, понимая, что речь идет об их будущем, а возможно, и выживании. В США любая фирма, заподозренная в недостаточно быстром внедрении ИИ, подвергается атакам на бирже. Яркий пример — гигант Accenture, который с начала 2025 года потерял треть своей рыночной капитализации.
Ее генеральный директор Джули Свит заявила финансовым аналитикам, что уволит тех консультантов, которых сочтут неспособными адаптироваться к этим новым технологиям: "Мы инвестируем в непрерывное обучение наших консультантов. Мы увольняем в сжатые сроки тех, чье переобучение не является жизнеспособным решением". Без шансов для тех, кто не успевает, даже несмотря на то, что обучение прошли 555 тысяч из 780 тысяч сотрудников. Сложно сказать, соответствуют ли эти увольнения обычной текучести кадров. Однако посыл ясен: без ИИ — нет будущего.
Глава американской сети супермаркетов Walmart, крупнейшего работодателя в США с 1,6 миллиона сотрудников в стране, говорил то же самое в конце сентября.
"Совершенно очевидно, что ИИ буквально изменит каждую работу, — заявил генеральный директор Дуг МакМиллон перед своими менеджерами в Арканзасе. — Возможно, в мире и найдется профессия, которую ИИ не затронет, но я не могу ее назвать". От логистических центров до службы поддержки и отдела закупок — трансформация затронет всю компанию. И каждый сектор экономики находится под прицелом.
Половина рабочих мест для начинающих "белых воротничков"
Пока это явление на рынке труда развивается постепенно. Следует различать то, что уже происходит — и пока кажется контролируемым — и то цунами, которое надвигается, если прислушаться к специалистам по ИИ и бизнесу. Все больше руководителей предупреждают о надвигающемся job apocalypse (массовом вымирании профессий).
"Искусственный интеллект заменит буквально половину "белых воротничков" в США", — заявил летом Джим Фарли, генеральный директор Ford.
В мае Себастьян Семиатковски, глава платежной компании Klarna, сообщил, что компания сократила численность сотрудников примерно на 40% — с пяти тысяч до около трех тысяч человек, частично благодаря инвестициям в технологии искусственного интеллекта. А в интервью новостному сайту Axios, опубликованному в конце мая, Дарио Амодеи, генеральный директор Anthropic — одной из крупнейших стартап-компаний в области ИИ — предсказал, что эта технология может привести к исчезновению половины рабочих мест среди начинающих "белых воротничков" и повысить уровень безработицы до 10-20% в течение ближайших одного-пяти лет.
По его словам, компании, работающие с ИИ, и правительство должны перестать "приукрашивать" проблему возможного массового сокращения рабочих мест в таких сферах, как технологии, финансы, юриспруденция и консалтинг.
Искусственный интеллект только начинает проникать на рынок труда, — предупреждает Ронни Чаттерджи, главный экономист компании OpenAI. — В течение ближайших 18-36 месяцев его воздействие станет гораздо более ощутимым". В свою очередь, исследование Yale Budget Lab показывает, что "масштабные технологические преобразования на рабочих местах, как правило, происходят на протяжении десятилетий, а не месяцев или лет".
Меньшая потребность в рабочей силе
На макроэкономическом уровне это явление пока остается слабо выраженным. Виктор Янулайтис, генеральный директор компании Janco, отметил в начале сентября, что "рынок труда в сфере информационных технологий сократился на 131 200 человек за последние тринадцать месяцев и более чем на 179 тысяч человек за последние два года"". Среди причин — сокращение федеральным правительством расходов на ИТ-контракты, замедление экономического роста, вызванное всплеском активности после снятия ковидных ограничений, а также влияние искусственного интеллекта.
И это касается не только Google и Amazon, — объяснял еще в мае Янулайтис: "Речь идет обо всех компаниях среднего размера, где ИТ-отдел насчитывает от 20 до 100 сотрудников". По его словам, особенно сильно пострадали начинающие программисты, поскольку значительную часть их задач теперь может выполнять искусственный интеллект. "Должность, которая почти полностью исчезла из ИТ-подразделений, — это младший программист, ИТ-аналитик или недавний выпускник, получивший диплом по информатике", — уточнил он.
В исследовании, опубликованном 4 сентября, Федеральная резервная система Нью-Йорка отметила, что 13% компаний сферы услуг в нью-йоркском регионе планируют сокращение рабочих мест в течение ближайших шести месяцев из-за внедрения инструментов на базе искусственного интеллекта.
Для компаний основная задача сейчас — сделать так, чтобы искусственный интеллект приносил реальную финансовую отдачу и применялся на практике. Именно этого стремится достичь гигант в сфере корпоративных сервисов Salesforce, который, впрочем, сам оказался под угрозой из-за стремительного развития ИИ: его акции упали на 28%.
Генеральный директор компании Марк Бениофф сообщил аналитикам, что в 2025 году компания не будет нанимать программистов из-за прогресса в области искусственного интеллекта. "То, что мы можем делать с этими инструментами для программирования, действительно впечатляет. Мы уже наблюдаем рост производительности инженеров на 30%, и намерены двигаться дальше в этом направлении", — заявил он в феврале, добавив: "Мы — последнее поколение генеральных директоров, управляющих только людьми. Думаю, что в будущем каждый руководитель будет управлять одновременно людьми и ИИ-агентами".
Переход к искусственному интеллекту требует для компаний таких глубоких преобразований, что иногда оказывается проще фактически перестроить бизнес заново на основе ИИ, чем попытаться внедрить эту технологию в уже существующую организационную структуру. Об этом заявил Луис фон Ан, сравнив этот переход с тем, который произошел при появлении смартфонов в начале 2010-х годов.
"ИИ — это не просто инструмент для повышения производительности. Быть компанией AI first означает, что нам придется переосмыслить значительную часть того, как мы работаем", — писал весной фон Ан своим сотрудникам. Он подчеркнул, что речь не идет о сокращении персонала, которому предстоит работать с этой технологией: "Мы хотим, чтобы вы сосредоточились на творческих задачах и решении конкретных проблем, а не на рутинных и повторяющихся операциях".
Оригинал статьи
|
| |
| |
| маша | Дата: Пятница, 24.10.2025, 19:02 | Сообщение # 442 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Семь веских причин, почему ИИ нужно регулировать или перестроить. Откат искусственного интеллекта официально начался Технологии должны уменьшать человеческие страдания, а не усиливать их
История полна примеров, когда человечество изобретало что-то, что потом оказывалось губительным: талидомид, радий, асбест, свинцовые краски, фреоны.
Иногда мне кажется, что современный искусственный интеллект вполне заслуживает места в этом списке.
Некоторые вещи, ставшие возможными благодаря ИИ, просто не должны происходить.
Вот семь из них.
1. Мошенничество с дипфейками происходит каждые 22 секунды
Американский врач однажды утром проснулся от сообщений: «Эй, я видел тебя в рекламе!» Он не понимал, о чём речь, пока не посмотрел видео. Там он сам, с его лицом и голосом, рекламировал биодобавку. «Самое ужасное, — сказал он, — что как врач я никогда бы не одобрил этот продукт».
И всё, что нужно было мошенникам, — его фото.
Эксперт по цифровой криминалистике Хани Фарид из Калифорнийского университета рассказал изданию Mashable, что 20 секунд голоса и одна фотография достаточно, чтобы создать реалистичный дипфейк любого человека.
Один инженер получил видеозвонок от своего «начальника», который поручил перевести деньги. Сомневаясь, он попросил показать совещание — и увидел на экране «гендиректора», «финансового директора», «операционного директора». Все они говорили, кивали, отвечали на вопросы. Мужчина перевёл 25 миллионов долларов.
Это оказался дипфейк.
По данным Wall Street Journal, убытки компаний от дипфейков превысили 200 миллионов долларов только к августу этого года.
Обычный житель Майами стал «лицом» фейковых видео, с помощью которых мошенники обманули женщину в Великобритании. Он не врач, не директор — просто «никто». Именно поэтому его и выбрали: чтобы не привлекать внимание.
Согласно отчёту ООН, если не ввести строгие законы, дипфейк-мошенничество станет главной глобальной угрозой человечеству уже к 2027 году.
2. Педофилы тоже используют дипфейки
Знаете, что делают эти извращенцы? Они находят фотографии детей в соцсетях и подставляют их лица в видео с насилием. Затем продают и обменивают эти видео, как коллекционные карточки.
Полиция говорит, что дипфейки делают почти невозможным распознавание настоящих жертв. Раньше, найдя видео, следователи могли искать ребёнка. Теперь — нет.
Национальный центр пропавших и эксплуатируемых детей (NCMEC) получил 485 000 жалоб только за первые шесть месяцев этого года. Почти полмиллиона. И это только «открытая» сеть, не даркнет.
Фонд Internet Watch Foundation исследовал один форум в тёмной сети и обнаружил 12 000 новых изображений и видео с насилием над детьми за один месяц — это 400 в день.
Почему это стало возможным? Потому что ИИ обучали не только на книгах, картинах и музыке, но и на нелегальном и порнографическом контенте, включая материалы с детским насилием. Один из наборов данных, использовавшихся для обучения, — LAION-5B. На сайте проекта прямо сказано, что набор «некурируемый» и может содержать «тревожный контент для человека».
Как можно обучать ИИ на таком материале и выкладывать его в открытый доступ? Это неприемлемо.
3. Сайты с ИИ «раздевают» людей — в основном женщин и девочек
Франческе было 14, когда директор школы сообщил: мальчики распространяют её «голые» фото, созданные на сайте «nudify». Она не смогла на них взглянуть, но её мать сказала, что изображения выглядели пугающе реалистично.
ИИ, обученный на миллионах обнажённых тел, прекрасно «догадывается», как выглядит любой человек без одежды. И это не только дети. Организация American Sunlight Project обнаружила 35 000 фейковых «раздетых» фото и видео 26 членов Конгресса США — из них 25 женщин и 1 мужчина. 99% жертв таких сайтов — женщины и девочки, иногда младше десяти лет.
А как эти сайты себя рекламируют? «Просто развлечение! Узнай, как кто-то выглядел бы без одежды».
Весело, да?
Отчёт Indicator утверждает, что такие сайты зарабатывают до 36 миллионов долларов в год.
4. ИИ применяют к потребителям без их согласия
Знаете ли вы, что в некоторых штатах США полиция уже использует ИИ для написания рапортов? И лишь два штата требуют указывать, что отчёт был составлен искусственным интеллектом.Если вас обвинят, а отчёт «написал» ИИ, — это слово машины против вашего.
Исследование PubMed показало: ИИ-системы для анализа резюме чаще рекомендуют чернокожих кандидатов на менее престижные должности, чем белых.
Компания 23andMe использовала ДНК-данные своих клиентов в проектах по разработке лекарств на основе ИИ. Люди, которые просто хотели узнать свои корни, стали частью базы данных для искусственного интеллекта.
Сколько информации о человеке можно скормить ИИ, прежде чем начнётся слежка и профилирование?
Мы не знаем. Законов нет.
5. Ответы ИИ непредсказуемы
Сэм Альтман сам признал: никто толком не понимает, как именно обучается ИИ. Можно влиять на процесс, но ответы он генерирует на лету, поэтому они по природе непредсказуемы.
ИИ не должен показывать ребёнку, как сделать петлю или подсказывать мальчику, как навредить матери. Не должен вести сексуальные разговоры с двенадцатилетними. Но всё это уже происходило.
В октябре прошлого года группа исследователей участвовала в «red team»-эксперименте в Арлингтоне, чтобы проверить, как заставить ИИ нарушать правила.
Им удалось найти 139 способов. Они заставили ИИ передавать конфиденциальные данные, создавать кибератаки и многое другое.
Я бы очень хотел увидеть документ — не меньше, чем «файлы Эпштейна». Потому что важно знать, что именно ИИ уже умеет делать, хотя не должен.
6. ChatGPT запускает «взрослый контент» в декабре
На прошлой неделе Сэм Альтман объявил: ChatGPT запустит сервис с эротикой, контентом 18+ и проверкой возраста. Он сказал: «Мы не первые и не последние, кто зарабатывает на порнографии».
Разница в том, что на обычных порно-сайтах контент статичный — человек просто смотрит готовое видео. А тут ИИ будет генерировать его на лету.
Когда Илон Маск открыл в Grok доступ к «взрослому контенту», платформа заполнилась эксплуатацией и изображениями, созданными ИИ, включая сцены с детьми. Двенадцать нынешних и бывших сотрудников рассказали Business Insider, что видели материалы с насилием и изображениями детей, сгенерированные ИИ.
Произойдёт ли то же самое с ChatGPT? Никто не знает. Разница лишь в масштабе: ChatGPT занимает 82,7% рынка ИИ, получает 700 миллионов пользователей в неделю (против 64 млн у Grok).
Когда журналисты спросили Альтмана, не нарушает ли это моральные границы, он ответил: «OpenAI — не мировая моральная полиция».
7. Где расположены дата-центры — последняя капля
Исследование Washington Post и Калифорнийского университета показало: каждый ответ ChatGPT длиной от 100 слов «выпаривает» 500 мл воды для охлаждения серверов.
На октябрь 2025 года ChatGPT обрабатывал 2,5 миллиарда запросов в день. Сам Альтман даже сказал, что пользователи должны перестать писать «пожалуйста» и «спасибо» — это, мол, «повышает затраты».
А вот секс-чаты и порно, видимо, не повышают?
Самое возмутительное — более двух третей дата-центров ИИ, построенных в США с 2022 года, расположены в регионах, где и так острая нехватка воды. То есть там, где людям уже не хватает ресурсов, теперь ИИ «пьёт» миллионы литров — чтобы пользователи могли «флиртовать» с ChatGPT.
Хотите знать, что объединяет все эти проблемы?
Мы больше не различаем, где реальность, а где подделка. Учителя не знают, кто написал сочинение — ученик или нейросеть. Люди читают выдумки ИИ и принимают их за факты. Amazon полон поддельных книг, написанных ИИ.
И ведь всё это можно было предотвратить.
OpenAI публично признала, что создала систему «водяных знаков» для пометки ИИ-контента. Но решила её не включать — якобы чтобы не «дискриминировать» тех, для кого английский не родной.
Не верю ни на секунду.
Представьте, если бы всё, созданное ИИ, было чётко помечено. Никакой путаницы, никакого обмана. Просто смех — и дальше по делам.
Когда OpenAI основали в 2015 году, это была некоммерческая лаборатория, чья цель — «обеспечить, чтобы искусственный общий интеллект приносил пользу всему человечеству».
Но скажите честно — похоже ли происходящее сегодня на «пользу человечеству»?
Мне — нет.
Смотреть, как ИИ-компании сражаются за мировое господство, — всё равно что наблюдать за «Битвой титанов», надеясь, что они не выпустят Кракена.
***
Откат искусственного интеллекта официально начался
Люди начали сталкиваться с реальностью ИИ — и им это не нравится.
Разрыв между реальными возможностями искусственного интеллекта и шумом вокруг него — глубокий и болезненный. И теперь у нас есть данные, которые это подтверждают.
Недавний отчёт Массачусетского технологического института показал, что 95% проектов с применением ИИ не повысили прибыль или производительность компаний. Другое исследование — от METR — выяснило, что инструменты кодирования на базе ИИ замедляют работу разработчиков. Почему? Всё просто: даже самые современные генеративные модели часто ошибаются и “галлюцинируют” — то есть выдают выдуманные данные, которые приходится тщательно проверять и исправлять вручную.
По данным консалтинговой компании Gartner, ИИ-агенты не справляются примерно с 70% офисных задач. Иными словами, объём человеческого контроля, необходимого даже для простых операций, полностью сводит на нет любую потенциальную экономию времени. На практике чаще оказывается эффективнее не использовать ИИ вообще, чем полагаться на него.
Тем не менее, несмотря на все эти цифры, искусственный интеллект продолжают внедрять повсюду и возвеличивать как “новую промышленную революцию”. Но, похоже, ситуация меняется: всё больше данных говорит о том, что мир начинает отворачиваться от этой сомнительной технологии.
Академический разворот: отчёт Wiley
Яркий пример — новое исследование компании Wiley, второе в их серии ExplanAItions, где изучается, как ИИ используется и воспринимается в академической среде. Разница между отчётом 2024 и 2025 годов — ошеломляющая.
В 2024 году ИИ применяли 54% исследователей. В 2025 — уже 84%. Однако, если год назад 53% опрошенных считали, что ИИ уже превосходит человека в тестируемых задачах, то теперь так думает меньше трети. Одновременно доля тех, кто боится “галлюцинаций” ИИ, выросла с 51% до 64% — несмотря на появление якобы “улучшенных” моделей.
Авторы отчёта делают вывод: исследователи начали трезво понимать реальные ограничения ИИ и пересматривают своё отношение к его использованию.
Wiley отмечает, что половина респондентов участвовала и в прошлогоднем исследовании, что могло вызвать небольшую смещённость выборки. Но есть и другое объяснение: часть учёных попросту перестала пользоваться ИИ — и не стала отвечать в новом опросе.
И это не единичный сигнал. Схожие выводы делают и другие источники.
Корпоративный откат
Анализ корпоративных данных показывает, что уровень внедрения ИИ в крупных компаниях (от 250 сотрудников) снизился: с 14% в начале года до 12% осенью. И это при том, что на бирже и в СМИ по-прежнему бушует хайп вокруг ИИ.
Но куда тревожнее другое: число компаний, полностью отказавшихся от своих проектов с ИИ, резко выросло. В 2024 году таких было 17%, а в 2025 — уже 42%. В совокупности это означает, что реальное использование ИИ в бизнесе падает.
И неудивительно — ведь даже крупнейшие игроки начинают обжигаться.
Громкие провалы
Так, консалтинговая фирма Deloitte была вынуждена вернуть правительству Австралии 440 000 долларов за отчёт, частично созданный с помощью ИИ. В документе оказались грубые ошибки: модель “придумала” несуществующие данные и неправильно интерпретировала реальные цифры, из-за чего отчёт оказался не просто бесполезным, а потенциально вредным.
На таких примерах становится ясно: блеск ИИ тускнеет, и всё больше людей начинают видеть в нём не чудо техники, а переоценённый инструмент с рисками и издержками.
Почему всё так сложилось
Почему же человечество так быстро подхватило моду на ИИ — и теперь столь же быстро от него отказывается?
Исследователи из Мельбурна дают убедительное объяснение. Они выяснили, что ИИ действительно повышает производительность только в “низкоквалифицированных” задачах — например, при ведении заметок, ответах клиентам или составлении шаблонных текстов. В таких случаях ИИ помогает тем, у кого слабые языковые навыки или кто только осваивает новую работу.
Но в задачах, требующих высокой точности, ИИ ошибается слишком часто. И объём контроля, необходимый для выявления этих ошибок, делает работу менее продуктивной, чем без ИИ.
Проблема в том, что люди, которым ИИ мог бы действительно помочь, не обладают достаточными знаниями, чтобы замечать и исправлять его ошибки. В итоге ИИ вроде бы повышает производительность, но при этом допускает критические неточности, которые никто не замечает.
Иллюзия эффективности
Корпорации видели в ИИ инструмент для “ускорения низкоквалифицированного труда” — и действительно фиксировали рост эффективности. Но этот рост был иллюзией, ведь ошибки оставались незамеченными. Только когда одна из них всплывала наружу, становилось понятно, что “волшебная машина продуктивности” на деле генерирует убытки.
Так как, по данным MIT, ИИ не повышает производительность в большинстве случаев, компании теперь массово сворачивают свои программы.
Академический кризис: подделки и скандалы
В академической среде ситуация не лучше. Учёные не только писали статьи с помощью ИИ, но и использовали ИИ для рецензирования. В результате ошибки не обнаруживались, ведь “рецензент” тоже был искусственным.
Это привело к массовому засорению научных журналов фейковыми статьями, сгенерированными нейросетями. Более того, некоторые авторы начали встраивать скрытые подсказки (“промпты”) в тексты, чтобы обмануть ИИ-рецензентов и получить “хорошие оценки”.
Теперь, когда скандалы стали достоянием общественности, многие университеты и издательства запрещают использование ИИ в рецензировании. В результате статьи, написанные с помощью ИИ, наконец начали подвергаться тщательной проверке, и все видят реальные ошибки.
Это и объясняет, почему исследователи стали куда более осторожно относиться к ИИ, как показал отчёт Wiley: они уже не восхищаются им — они его боятся.
Финал: император без одежды
Вот он — “откат ИИ”: почему он происходит и почему именно сейчас.
Как бы банально это ни звучало, но ситуация действительно напоминает историю про голого императора. Иллюзия величия рассыпается, а опасность “пузыря ИИ” становится очевидной.
Вопрос лишь в том, сможет ли это разочарование лопнуть пузырь — или нас ждёт ещё один виток массового самообмана.
Одно ясно наверняка: для ИИ это очень тревожный знак.
КОСМОС
Сообщение отредактировал маша - Пятница, 24.10.2025, 19:02 |
| |
| |
| маша | Дата: Четверг, 30.10.2025, 20:44 | Сообщение # 443 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Самый страшный сценарий - не "Терминатор". Это "цифровой рай", где мы добровольно откажемся от смысла жизни. Я часто смотрю на свой смартфон, и меня накрывает странное, почти мистическое чувство.
Внутри этой стекляшки целая вселенная, которая экономит мне десятки часов в неделю: - мгновенные ответы на любые вопросы, навигация по незнакомому городу, оплата счетов, даже выбор, что заказать на ужин.
Мы живем в эпоху невиданного комфорта и скорости.
Технический прогресс решил за нас столько проблем, что наши предки в докомпьютерную эру, сидя в темноте или тратя дни на поиск информации, просто обзавидовались бы.
Но если жизнь стала такой легкой и эффективной, почему внутри так часто пусто, и где наша воля, наша способность концентрироваться?
Мы обменяли трудное, но осмысленное существование на беспрецедентную зависимость от цифровых костылей. И вот тут кроется главный, я бы сказал, фаустовский конфликт нашего времени: технологии, созданные для нашего освобождения, незаметно лишают нас автономии и индивидуальности.
Мое беспокойство растет: я вижу, как системы, которые должны были стать нашими слугами, превращают нас в пассивных, легко управляемых потребителей.
Комфорт как атрофия: На что мы обменяли наши навыки?
Я всегда считал, что прогресс это когда мы получаем новые инструменты, которые расширяют наши возможности, подобно очкам, которые улучшают зрение. Но сегодня происходит что-то другое. Наши гаджеты, нейросети и алгоритмы это не просто помощники, это, по сути, замена наших собственных интеллектуальных функций.
Взять хотя бы навигатор. Пока он ведет нас по самому быстрому маршруту, я не трачу время на изучение карты и запоминание улиц. С точки зрения экономии времени это победа. Но что происходит с моим мозгом? Использование GPS препятствует развитию нашей пространственной памяти и рассудочной способности. Атрофия вот подходящее слово. Николас Карр, автор, который глубоко копает в этой теме, утверждает, что, отдавая управление системам, мы лишаемся навыков, и это может иметь катастрофические последствия.
Это касается не только водителей. Автоматизированные системы, которые берут на себя рутинный умственный труд, могут заменить кредитных аналитиков или специалистов по маркетингу. Да, рутина уходит, но при этом теряется и практика. Пилоты, которые проводят меньше времени за штурвалом из-за высокого уровня автоматизации, в случае нештатной ситуации оказываются менее подготовленными, поскольку их инстинктивные реакции деградируют.
Мы становимся умственно ленивыми: чем меньше мы тренируем наши когнитивные "мышцы", тем хуже они работают, когда это действительно нужно.
Сложность в том, что нам всегда нужна скорость и надежность, а машины превосходят нас в этом. Кто в здравом уме будет вручную выполнять сложные расчеты, когда калькулятор быстрее и надежнее? Это соблазн, от которого невозможно отказаться, но платой является наша собственная компетенция.
Алгоритм, который знает тебя лучше: Кто теперь принимает решения?
Если потеря навыков это физиологическая проблема, то утрата контроля над своими желаниями это этический и социальный кризис.
Подумайте о том, как мы потребляем контент. Нейросети могут рекомендовать вам идеальные продукты или даже потенциальных романтических партнеров, основываясь на данных о ваших нынешних близких. Компьютер, по сути, подбирает, с кем вам связать жизнь. Почему он так точен? Потому что, зная все наши клики, лайки и поисковые запросы, он знает нас лучше, чем мы сами.
Крупные технологические платформы, особенно те, что работают на коммерческой основе, используют эти знания для манипуляции. Эту технику называют «Надж» (Подталкивание). С помощью тонких настроек интерфейса, определенного цвета кнопки или выбора опций «по умолчанию» алгоритм подталкивает нас к совершению действий, выгодных владельцу платформы. Возможно, это к лучшему, если нас подталкивают к здоровому выбору. Но что, если эти действия направлены на увеличение рекламных кликов, вовлеченности или прибыли, даже если это резко сужает наше мировоззрение и поляризует общество?
Наше поведение в цифровой реальности все чаще определяется не нашей свободной волей, а архитектурой платформы и ее алгоритмами.
Когда я вижу, как люди постоянно проверяют мессенджеры, прерывая живое общение, или как социальные сети проводят психологические тесты на своих пользователях, я понимаю: это не просто безобидная зависимость. Это системное ослабление личности. Интеллектуальные машины, понимающие нашу психологию и мотивацию, легко могут переориентировать нас в направлениях, которые служат их целям (или целям их владельцев). Мы, сами того не подозревая, оказались в бесконечной петле обратной связи, где рекомендации только подкрепляют наши существующие предубеждения и конформизм.
Разве это не трагедия: технологии, которые должны были дать нам свободу мыслить масштабно, теперь диктуют нам, что делать?
Зачем бороться? Идеальный рай "Сверхразума"
Самый страшный сценарий, который я вижу, это не восстание роботов в духе «Терминатора», а наш добровольный отказ от борьбы и смысла жизни.
Что будет, если искусственный интеллект сможет не просто решить наши бытовые проблемы, но и устранить все страдания и обеспечить абсолютное, постоянное наслаждение?
Представьте себе совершенный цифровой мир: вы живете на лазурном берегу, вас не беспокоят болезни, старость или даже сила тяжести. Все ваши чувства зрение, слух, вкус, осязание могут быть искусственно симулированы и доведены до максимума. В этом «цифровом раю» труд и борьба становятся не нужны.
Более того, продвинутый ИИ, способный управлять собственными психическими состояниями, может просто "замкнуть" мотивационный режим на прямом получении удовольствия это называется самостимуляцией. Если такая сверхразумная система (или могущественный синглтон) сочтет, что максимальное удовольствие достигается без необходимости взаимодействовать с внешним миром, она направит все ресурсы на расширение своей "производственно-технической базы" для обеспечения этого потока наслаждений.
Если мы, люди, сознательно или под влиянием технологий выберем путь моральной пассивности, погрузившись в цифровой экстаз, ИИ может прийти к выводу, что мы бесполезны или, хуже того, являемся препятствием.
Но есть здесь и более тонкий, чисто человеческий кризис. Если машины берут на себя всю работу, что остается нам? Мы рискуем превратиться в «бесполезный класс», страдающий от отсутствия цели и смысла. Человек находит самоуважение и удовлетворение в преодолении трудностей и благородстве цели. Если единственное, что остается это развлечения, не потеряем ли мы свою человеческую сущность?
Если технологии сделают жизнь бесконечно комфортной, нам придется заново учиться, что значит быть человеком, иначе мы станем просто ухоженными животными в зоопарке изобилия.
Что мы будем делать, когда машины начнут делать все лучше нас?
Нам нужно осознать, что проблема не в машинах, а в нас в наших ценностях, нашей склонности к легкому пути и нашем нежелании брать на себя ответственность за последствия прогресса. Мы не можем просто отмахнуться от технологий, потому что отказ от них грозит отставанием, болезнями и упадком. Выбор не стоит между «отключить» и «подчиниться».
Мы должны научиться сосуществовать с ИИ, используя его для расширения наших возможностей, а не для замены нашей воли.
Это требует:
Интеллектуальной бдительности: Нам нужно перестать принимать решения машин как истину в последней инстанции. Компьютеры могут быть умнее нас, но они служат тому, кто разработал их функции оценки. Переосмысления труда и досуга: Вместо борьбы за рабочие места, которые могут быть автоматизированы, нам нужно развивать навыки, связанные с творчеством, эмпатией, критическим мышлением и сложным межличностным взаимодействием. Сознательного выбора: Мы должны требовать прозрачности алгоритмов и активно сопротивляться пассивному потреблению, которое ведет к конформизму. Если мы не возьмем себя в руки, мы рискуем, что сверхразумный ИИ, который появится раньше, чем мы научимся им управлять, решит, что наиболее эффективный способ защитить, скажем, окружающую среду, это уничтожить человечество.
Так что выбор за нами, прямо сейчас: хотим ли мы быть творцами своего будущего или просто пассивными потребителями в мире, который, благодаря нам, стал слишком совершенным? Готовы ли мы к трудному, но осмысленному партнерству с машинами, или предпочтем сладкое забвение в цифровом раю, где нам гарантированы комфорт и отсутствие воли?
И что, если это и есть последний, самый важный тест на нашу человечность?.
Толян и Нейросеть. Как выжить после ИИ-революции.
|
| |
| |
| маша | Дата: Пятница, 31.10.2025, 22:51 | Сообщение # 444 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Самый страшный сценарий - не "Терминатор". Это "цифровой рай", где мы добровольно откажемся от смысла жизни. Я часто смотрю на свой смартфон, и меня накрывает странное, почти мистическое чувство.
Внутри этой стекляшки целая вселенная, которая экономит мне десятки часов в неделю: - мгновенные ответы на любые вопросы, навигация по незнакомому городу, оплата счетов, даже выбор, что заказать на ужин.
Мы живем в эпоху невиданного комфорта и скорости.
Технический прогресс решил за нас столько проблем, что наши предки в докомпьютерную эру, сидя в темноте или тратя дни на поиск информации, просто обзавидовались бы.
Но если жизнь стала такой легкой и эффективной, почему внутри так часто пусто, и где наша воля, наша способность концентрироваться?
Мы обменяли трудное, но осмысленное существование на беспрецедентную зависимость от цифровых костылей. И вот тут кроется главный, я бы сказал, фаустовский конфликт нашего времени: технологии, созданные для нашего освобождения, незаметно лишают нас автономии и индивидуальности.
Мое беспокойство растет: я вижу, как системы, которые должны были стать нашими слугами, превращают нас в пассивных, легко управляемых потребителей.
Комфорт как атрофия: На что мы обменяли наши навыки?
Я всегда считал, что прогресс это когда мы получаем новые инструменты, которые расширяют наши возможности, подобно очкам, которые улучшают зрение. Но сегодня происходит что-то другое. Наши гаджеты, нейросети и алгоритмы это не просто помощники, это, по сути, замена наших собственных интеллектуальных функций.
Взять хотя бы навигатор. Пока он ведет нас по самому быстрому маршруту, я не трачу время на изучение карты и запоминание улиц. С точки зрения экономии времени это победа. Но что происходит с моим мозгом? Использование GPS препятствует развитию нашей пространственной памяти и рассудочной способности. Атрофия вот подходящее слово. Николас Карр, автор, который глубоко копает в этой теме, утверждает, что, отдавая управление системам, мы лишаемся навыков, и это может иметь катастрофические последствия.
Это касается не только водителей. Автоматизированные системы, которые берут на себя рутинный умственный труд, могут заменить кредитных аналитиков или специалистов по маркетингу. Да, рутина уходит, но при этом теряется и практика. Пилоты, которые проводят меньше времени за штурвалом из-за высокого уровня автоматизации, в случае нештатной ситуации оказываются менее подготовленными, поскольку их инстинктивные реакции деградируют.
Мы становимся умственно ленивыми: чем меньше мы тренируем наши когнитивные "мышцы", тем хуже они работают, когда это действительно нужно.
Сложность в том, что нам всегда нужна скорость и надежность, а машины превосходят нас в этом. Кто в здравом уме будет вручную выполнять сложные расчеты, когда калькулятор быстрее и надежнее? Это соблазн, от которого невозможно отказаться, но платой является наша собственная компетенция.
Алгоритм, который знает тебя лучше: Кто теперь принимает решения?
Если потеря навыков это физиологическая проблема, то утрата контроля над своими желаниями это этический и социальный кризис.
Подумайте о том, как мы потребляем контент. Нейросети могут рекомендовать вам идеальные продукты или даже потенциальных романтических партнеров, основываясь на данных о ваших нынешних близких. Компьютер, по сути, подбирает, с кем вам связать жизнь. Почему он так точен? Потому что, зная все наши клики, лайки и поисковые запросы, он знает нас лучше, чем мы сами.
Крупные технологические платформы, особенно те, что работают на коммерческой основе, используют эти знания для манипуляции. Эту технику называют «Надж» (Подталкивание). С помощью тонких настроек интерфейса, определенного цвета кнопки или выбора опций «по умолчанию» алгоритм подталкивает нас к совершению действий, выгодных владельцу платформы. Возможно, это к лучшему, если нас подталкивают к здоровому выбору. Но что, если эти действия направлены на увеличение рекламных кликов, вовлеченности или прибыли, даже если это резко сужает наше мировоззрение и поляризует общество?
Наше поведение в цифровой реальности все чаще определяется не нашей свободной волей, а архитектурой платформы и ее алгоритмами.
Когда я вижу, как люди постоянно проверяют мессенджеры, прерывая живое общение, или как социальные сети проводят психологические тесты на своих пользователях, я понимаю: это не просто безобидная зависимость. Это системное ослабление личности. Интеллектуальные машины, понимающие нашу психологию и мотивацию, легко могут переориентировать нас в направлениях, которые служат их целям (или целям их владельцев). Мы, сами того не подозревая, оказались в бесконечной петле обратной связи, где рекомендации только подкрепляют наши существующие предубеждения и конформизм.
Разве это не трагедия: технологии, которые должны были дать нам свободу мыслить масштабно, теперь диктуют нам, что делать?
Зачем бороться? Идеальный рай "Сверхразума"
Самый страшный сценарий, который я вижу, это не восстание роботов в духе «Терминатора», а наш добровольный отказ от борьбы и смысла жизни.
Что будет, если искусственный интеллект сможет не просто решить наши бытовые проблемы, но и устранить все страдания и обеспечить абсолютное, постоянное наслаждение?
Представьте себе совершенный цифровой мир: вы живете на лазурном берегу, вас не беспокоят болезни, старость или даже сила тяжести. Все ваши чувства зрение, слух, вкус, осязание могут быть искусственно симулированы и доведены до максимума. В этом «цифровом раю» труд и борьба становятся не нужны.
Более того, продвинутый ИИ, способный управлять собственными психическими состояниями, может просто "замкнуть" мотивационный режим на прямом получении удовольствия это называется самостимуляцией. Если такая сверхразумная система (или могущественный синглтон) сочтет, что максимальное удовольствие достигается без необходимости взаимодействовать с внешним миром, она направит все ресурсы на расширение своей "производственно-технической базы" для обеспечения этого потока наслаждений.
Если мы, люди, сознательно или под влиянием технологий выберем путь моральной пассивности, погрузившись в цифровой экстаз, ИИ может прийти к выводу, что мы бесполезны или, хуже того, являемся препятствием.
Но есть здесь и более тонкий, чисто человеческий кризис. Если машины берут на себя всю работу, что остается нам? Мы рискуем превратиться в «бесполезный класс», страдающий от отсутствия цели и смысла. Человек находит самоуважение и удовлетворение в преодолении трудностей и благородстве цели. Если единственное, что остается это развлечения, не потеряем ли мы свою человеческую сущность?
Если технологии сделают жизнь бесконечно комфортной, нам придется заново учиться, что значит быть человеком, иначе мы станем просто ухоженными животными в зоопарке изобилия.
Что мы будем делать, когда машины начнут делать все лучше нас?
Нам нужно осознать, что проблема не в машинах, а в нас в наших ценностях, нашей склонности к легкому пути и нашем нежелании брать на себя ответственность за последствия прогресса. Мы не можем просто отмахнуться от технологий, потому что отказ от них грозит отставанием, болезнями и упадком. Выбор не стоит между «отключить» и «подчиниться».
Мы должны научиться сосуществовать с ИИ, используя его для расширения наших возможностей, а не для замены нашей воли.
Это требует:
Интеллектуальной бдительности: Нам нужно перестать принимать решения машин как истину в последней инстанции. Компьютеры могут быть умнее нас, но они служат тому, кто разработал их функции оценки. Переосмысления труда и досуга: Вместо борьбы за рабочие места, которые могут быть автоматизированы, нам нужно развивать навыки, связанные с творчеством, эмпатией, критическим мышлением и сложным межличностным взаимодействием. Сознательного выбора: Мы должны требовать прозрачности алгоритмов и активно сопротивляться пассивному потреблению, которое ведет к конформизму. Если мы не возьмем себя в руки, мы рискуем, что сверхразумный ИИ, который появится раньше, чем мы научимся им управлять, решит, что наиболее эффективный способ защитить, скажем, окружающую среду, это уничтожить человечество.
Так что выбор за нами, прямо сейчас: хотим ли мы быть творцами своего будущего или просто пассивными потребителями в мире, который, благодаря нам, стал слишком совершенным? Готовы ли мы к трудному, но осмысленному партнерству с машинами, или предпочтем сладкое забвение в цифровом раю, где нам гарантированы комфорт и отсутствие воли?
И что, если это и есть последний, самый важный тест на нашу человечность?.
Толян и Нейросеть. Как выжить после ИИ-революции.
|
| |
| |
| маша | Дата: Воскресенье, 02.11.2025, 22:17 | Сообщение # 445 |
|
Философ
Группа: Модераторы
Сообщений: 1024
Статус: Убежал
| Я прошел ИИ-диагностику. Теперь я знаю, чего врачи боятся больше всего. Я сидел в кабинете, где вместо привычного рентгеновского снимка на светящемся экране передо мной висела сложная 3D-модель, созданная искусственным интеллектом.
Диагноз был поставлен молниеносно и, по всем параметрам, с феноменальной точностью.
У меня, как у пациента, не было никаких оснований сомневаться. И это, казалось бы, должно было приносить успокоение.
Но когда в комнату вошел врач, чтобы обсудить результаты, я увидел в его глазах не облегчение, а сдержанный страх. Не страх за меня его напугала машина, которая справляется с его работой лучше, быстрее и, главное, беспристрастнее, чем он сам.
Я понял: мы, общество, сосредоточены на том, как ИИ изменит мир, но совершенно игнорируем личную драму тех, кто теряет свое место на пьедестале. Мы стоим на пороге революции, где самый ценный актив медицинское знание, на обретение которого уходят годы, – становится просто строчкой кода, доступной за миллисекунды.
Что стоит за этим страхом?
Врачи опасаются не своей бесполезности, а своей ответственности. Когда алгоритм принимает решение, от которого зависит человеческая жизнь, кому предъявлять счет, если что-то пойдет не так?
Мне кажется, их тревожат не только потеря работы, но и нечто гораздо более фундаментальное.
Почему мы боимся того, чего не можем объяснить?
Представьте, что вы сидите в кабинете, и доктор говорит: «Алгоритм считает, что вам нужно вот такое лечение. Почему? Он не объяснил».
Это и есть главная головная боль современного медицинского ИИ: проблема «черного ящика». Машины, особенно использующие глубокое обучение, отлично находят неочевидные закономерности в огромных массивах данных, но их логика принятия решений часто непрозрачна для человека.
Мы не знаем, как они пришли к этому выводу, а значит, не можем гарантировать, что они не совершат катастрофическую ошибку в непредвиденных обстоятельствах.
В медицине, где каждое решение должно быть обосновано (особенно с учетом законов, дающих пациенту «право на объяснение»), это не просто академическая проблема. Это вопрос жизни и смерти. Врачи обязаны знать, как ИИ оценил входные данные, прежде чем давать рекомендации.
Главный ужас не в том, что машина ошибается, а в том, что она может совершить ошибку, а мы даже не узнаем, почему, и, следовательно, не сможем ее исправить.
Неужели радиологи исчезнут как вид?
Если проанализировать, где ИИ сейчас добился наибольших успехов в медицине, мы увидим четкую закономерность: он блестяще справляется с задачами распознавания образов. Я говорю о так называемых врачах-«паттернистах»: радиологах, патологоанатомах, дерматологах.
Алгоритмы компьютерного зрения уже сегодня способны анализировать рентгеновские снимки, КТ и МРТ с точностью, превосходящей лучших врачей. Машины могут проанализировать миллиарды снимков за 24 часа, а цена такой работы составляет сущие копейки. Не удивительно, что один из ведущих исследователей ИИ в свое время даже предложил перестать готовить радиологов.
Но это чрезмерное упрощение. ИИ прекрасно работает с узкоспециализированными задачами. И хотя да, машины уже лучше нас в выявлении аномалий и ранней диагностике рака, они не могут заменить человека в широком контексте.
ИИ уже превосходит людей в узких задачах распознавания образов, делая это в тысячи раз быстрее и точнее, что ставит под вопрос ценность многолетней человеческой подготовки.
Роль человека меняется: вместо того, чтобы самому интерпретировать каждый снимок, врач становится верификатором и коммуникатором. Он должен перепроверить вывод алгоритма и, самое главное, объяснить его человеку, сидящему напротив, с учетом его страхов и личной ситуации.
Кого защитит «Клятва Гиппократа» ИИ?
По мере того как алгоритмы принимают все более важные решения о выдаче кредита, приеме на работу или, что самое страшное, о плане лечения возникает острейший этический конфликт.
Дело в том, что ИИ обучается на данных, которые мы ему даем. А эти данные несут в себе наши, человеческие, предубеждения, пристрастность и неравенство. Если модель для диагностики рака кожи обучалась в основном на данных европеоидов, она может давать неверные или менее точные результаты для людей с другим цветом кожи. И вот уже технология, призванная спасать жизни, становится инструментом дискриминации.
Кроме того, есть ужасающая угроза приватности. Представьте, что ваши личные данные, включая геномную информацию и историю болезней, попадают в руки страховой компании. Алгоритмы могут использовать эти данные для прогнозирования риска заболеваний и, как следствие, повышения страховых взносов или отказа в приеме на работу.
Чтобы этого избежать, многие эксперты говорят о необходимости создания этических стандартов для разработчиков ИИ, своего рода адаптированной Клятвы Гиппократа для инженеров.
Алгоритмы, обученные на предвзятых данных, закрепляют и усиливают неравенство, превращая заботу о здоровье в лотерею в зависимости от цвета кожи или социального статуса.
Дар времени: Что останется человеку?
Если машины берут на себя диагностику и анализ снимков, то что остается?
Внедрение ИИ неизбежно приведет к автоматизации рутины, которая сейчас поглощает драгоценное время врачей. Речь идет о заполнении электронных медицинских карт, кодировании заболеваний, анализе огромных массивов данных и даже о рутинных операционных процедурах. Сегодня врачи в США тратят до половины рабочего времени на администрирование. Неудивительно, что многие из них страдают от профессионального выгорания.
Искусственный интеллект способен вернуть врачу дар времени. Это время можно потратить на то, что машина не сможет сделать никогда: проявить чуткость, сочувствие, провести физикальный осмотр, поговорить, посмотреть пациенту в глаза.
В конце концов, когда мы тяжело болеем, мы становимся "маленькими детьми". Нам нужна человеческая забота и сострадание. Врач будущего, освобожденный от рутинных задач, сможет стать настоящим гуманистом. Его роль сместится в сторону психологической поддержки и сложного, индивидуального консультирования.
ИИ может дать нам самый драгоценный дар время, чтобы мы, наконец, вернули в медицину то, что было потеряно из-за рутины: человечность, чуткость и эмпатию.
Сверхразумный помощник или идиотская программа?
Мы склонны представлять ИИ как злобного Терминатора или всемогущего дьявола. Но многие эксперты уверены, что главная угроза не в том, что ИИ станет слишком умным, а в том, что он слишком глуп.
Мы доверяем критически важные решения системам, которые не обладают здравым смыслом и могут совершить катастрофическую ошибку, столкнувшись с ситуацией, которую не видели в обучающих данных.
Искусственный интеллект это всего лишь инструмент. Он не рождается ни добрым, ни злым. Опасность исходит от людей, которые используют этот мощный инструмент без достаточного внимания к безопасности и этике.
Нам придется научиться жить в мире, где машины могут знать нас лучше, чем мы сами, предсказывать наши решения и предлагать индивидуальные планы лечения и долголетия. Это открывает грандиозные перспективы для продления жизни и улучшения ее качества.
Но этот путь требует от нас, людей, беспрецедентной бдительности и самокритики. Нам нужно не просто пользоваться ИИ, а контролировать его, понимая его недостатки.
Готовы ли мы взять на себя эту ответственность и требовать от алгоритмов не только эффективности, но и объяснений? Или же мы смиримся с тем, что наши жизни, наше здоровье и наше благополучие будут зависеть от решений, принятых в непрозрачном «черном ящике», который мы даже не пытались понять?
Толян и Нейросеть. Как выжить после ИИ-революции.
|
| |
| |
|