| КОСМИЧЕСКАЯ ЭТИКА - Рассвет Сварога |
| Среда, 31.12.2025, 17:10 |
|
|
Приветствую Вас Гость | RSS
|
|
|
|
Повседневный быт. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ.
|
|
| маша | Дата: Вторник, 23.12.2025, 11:45 | Сообщение # 451 |
|
Философ
Группа: Модераторы
Сообщений: 1248
Статус: Убежал
| Ложь, лежащая в основе «революции искусственного интеллекта» Является ли искусственный интеллект новой ядерной эпохой? Скорость, с которой сегодня развивается искусственный интеллект, поражает.
Многие сравнивают её с темпами появления ядерных технологий — и даже такие популярные авторы, как Хэнк Грин, соглашаются с этим.
Этот «световой» темп роста используется для продвижения идеи о неком экономическом гонке вооружений в сфере ИИ:
- мол, если Запад не будет лидировать, его экономика рухнет, а значит, нужно срочно вкладывать огромные ресурсы в одну-единственную область, иначе — смерть и отставание.
В этом смысле нынешний бум ИИ действительно напоминает ядерную гонку между США и СССР.
Но у этой истории есть одна серьёзная проблема: ИИ не развивается и никогда не будет развиваться столь же быстро, как ядерные технологии. Основной аргумент, на котором строится оправдание «революции ИИ», — просто ложь. Ниже — реальная картина и последствия этого заблуждения.
Ядерные технологии
Развитие ядерных технологий действительно произошло с ошеломляющей скоростью. На это повлияли и Вторая мировая, и Холодная война, и то, что практическая польза атомной энергии была очевидна с первого дня — а значит, усилия по её развитию были гигантскими.
Краткая хронология:
1938 год — Отто Ган и Фриц Штрассман открыли ядерное деление.
1942 год — Энрико Ферми провёл первую контролируемую цепную реакцию.
1945 год — проект Манхэттен под руководством Оппенгеймера создал и испытал первую атомную бомбу; через месяц США сбросили бомбу на Японию. Стоимость проекта — около 2 млрд долларов того времени (36 млрд долларов в пересчёте на 2025 год), причём более 90% ушло на создание инфраструктуры будущей ядерной отрасли.
1951 год — в США реактор EBR-I впервые произвёл электроэнергию методом деления, хотя к сети не подключался (основная цель — производство плутония для оружия).
1952 год — успешный тест водородной бомбы Ivy Mike.
1954 год — США официально приняли первую серийную термоядерную бомбу; тот же год — спуск на воду первой атомной подлодки USS Nautilus с миниатюрным реактором.
1956 год — запуск Calder Hall в Британии, первой полноценной АЭС, поставлявшей энергию в сеть.
Таким образом, понадобилось всего три года, чтобы перейти от контролируемой реакции к боевому применению бомбы. И девять лет, чтобы перейти к промышленной атомной энергетике. Всего 18 лет — от открытия деления до появления зрелой ядерной отрасли, изменившей политику и экономику мира.
И всё это — при общих затратах менее 100 млрд долларов по нынешнему курсу для ключевых проектов Манхэттена, Castle и Calder Hall.
По данным Brookings Institution, США потратили 5 триллионов долларов (10,6 трлн в текущих ценах) на развитие ядерных технологий — как оружия, так и энергетических объектов — с 1945 по 1995 годы. Примерно 20% расходов пришлись на период 1945–1960 гг., когда формировалась инфраструктура. В пиковые годы США тратили эквивалент 141 млрд долларов в год (в ценах 2025 года).
Затраты были огромными, но и отдача была колоссальной. Ядерный арсенал обеспечил новый тип геополитического доминирования. Атомная энергетика стала прибыльной отраслью уже к 1980-м и остаётся ею сегодня. В этом смысле инвестиции в ядерную технологию оказались, возможно, самыми «выгодными» для Запада за всю историю.
Технологии ИИ
Теперь — что с искусственным интеллектом? Кажется, будто он возник внезапно в 2022 году, словно из научной фантастики. Но реальная история ИИ куда длиннее.
1952 год — Артур Самуэль создал программу, играющую в шашки и обучающуюся на опыте. Это одно из первых практических применений машинного обучения.
1957 год — Фрэнк Розенблатт разработал персептрон — первый искусственный нейронный алгоритм, способный анализировать данные и находить паттерны.
1964 год — создан ELIZA, первый чатбот.
1965 год — проект Dendral, использовавший символический ИИ для анализа органических молекул. Его подходы сегодня внедряются в LLM, чтобы снизить «галлюцинации».
1985 год — Джеффри Хинтон создал «машину Больцмана», первый ИИ, способный к несанкционированному (unsupervised) обучению — фундамент современной нейронной сети.
2001 год — IBM показала ИИ-трейдера, обыгрывающего людей.
2003 год — разработаны нейронные вероятностные языковые модели, предки современных LLM.
2017 год — Google придумала трансформеры — архитектуру, на которой построены все сегодняшние генеративные модели.
2018 год — OpenAI создала, но не выпустила публично, первый чатбот на основе трансформеров.
2020 год — исследователи обнаружили «границу эффективных вычислений», указывающую на быстрое снижение отдачи от роста моделей.
2022 год — выход ChatGPT-1, вызвавший смешанные отзывы.
2023 год — ChatGPT-4: огромная модель, но лишь немного лучше предыдущей, что подтвердило теорию об ограничениях роста.
2024 год — Big Tech потратила более 240 млрд долларов на развитие ИИ — резкий скачок, который должен был дать прорыв.
2025 год — ChatGPT-5 оказался, по мнению многих пользователей и исследователей, хуже ChatGPT-4, подтвердив стагнацию. Появились исследования MIT и HBR, указывающие:
95% корпоративных проектов ИИ проваливаются, большинство компаний несут огромные убытки, а случаи ИИ-психоза растут.
ИИ vs. ядерные технологии
ИИ не имел одного яркого момента рождения, как открытие ядерного деления. Но независимо от того, где провести границу начала и зрелости, его развитие намного медленнее.
Примеры:
Понадобилось 44 года, чтобы ИИ прошёл путь от лабораторного инструмента до успешного биржевого трейдера. 33 года, чтобы перейти от базовых принципов машинного обучения к более-менее полезным чатботам. 15 лет от появления предиктивного текста до современных LLM. Для сравнения: ядерным технологиям потребовалось всего семь лет, чтобы изменить мир и убить сотни тысяч людей.
Трансформеры существуют уже восемь лет — а реальная практическая отдача от этой технологии пока ничтожна. Генеративный ИИ остаётся малоприбыльным, а компаний с устойчивой бизнес-моделью в этой сфере фактически нет.
ИИ после 2017 года почти не развился фундаментально: архитектура та же, просто увеличены данные, вычисления и косметические улучшения. Поэтому прогресс остановился: это всё тот же «неэффективный колбасный аппарат», в который забрасывают всё больше «мяса», но выход почти не меняется.
И при этом разработка ИИ оказалась куда дороже ядерных технологий.
Big Tech в 2024 году вложила в ИИ 240 млрд долларов — на сто миллиардов в год больше, чем тратили США в разгар ядерной гонки (в пересчёте на сегодняшний курс).
В 2025 году мировой сектор ИИ планирует потратить 1,5 триллиона долларов, а в 2026 году — 2 триллиона. И при этом ни одна компания генеративного ИИ не имеет даже намёка на путь к прибыльности — не говоря уже о значимом эффекте для национальной экономики.
Таким образом:
ИИ развивается в лучшем случае в два раза медленнее, а то и в десять раз медленнее, чем ядерные технологии. Стоит его разработка в 2,4 раза дороже ежегодно, чем атомный проект в пик. Практическая отдача — почти нулевая.
Почему это стало возможным
Бум ИИ, как ранее NFT, криптовалюты или dot-com, окружён густым слоем лжи, PR-жаргона и мифов. Когда сама основная информация о технологии и её контекст искажены, общество теряет способность критически мыслить.
Миф становится сильнее реальности — и даже хорошо осведомлённые люди оказываются уязвимы. История ясно показывает: расплачиваться за разрушенные иллюзии придётся не тем, кто их распространял.
Учитывая всё это, неудивительно, что пузырь ИИ вырос до таких масштабов.
КОСМОС
|
| |
| |
| маша | Дата: Пятница, 26.12.2025, 11:28 | Сообщение # 452 |
|
Философ
Группа: Модераторы
Сообщений: 1248
Статус: Убежал
| Беспилотник совершил преступление: разбираемся, кто будет отвечать головой — разработчик, владелец или искусственный интеллект Беспилотник совершил преступление
Кого назначат виноватым в мире, где за рулём никого нет
Представьте: вы спите на заднем сиденье автомобиля с автопилотом, пока он везёт вас по ночному шоссе. Внезапно — удар, металл, тишина. Машина не распознала пешехода или перепутала фуру с небом.
И вот начинается главное: кто виноват — вы, инженер или строка кода?
Привычная юридическая логика ломается, потому что разум впервые отделился от биологического носителя, а понятие вины превратилось в головоломку ближайших лет.
Машина — всего лишь вещь
Почему ИИ нельзя посадить в тюрьму
Интуитивно хочется судить саму машину, но закон упирается в стену. ИИ — не субъект права. У него нет совести, страха наказания или понимания вины. Наказание без переживания теряет смысл, а «разобрать на запчасти» — не акт правосудия.
Идея «электронной личности» выглядит удобной лазейкой. Назначив виновным алгоритм, можно освободить людей от ответственности, особенно корпорации. Именно поэтому суды пока непреклонны: ИИ — инструмент. Судить его за преступление так же абсурдно, как судить молоток.
Кодекс рабовладельца
Почему владелец всегда под прицелом
Если машина — вещь, отвечает владелец. Юристы достают старый принцип из римского права: ущерб от «раба» оплачивает хозяин. Современный владелец беспилотника — это носитель безусловной ответственности.
Не важно, спали ли вы или были за тысячу километров. Источник повышенной опасности выпущен в мир — значит, риск ваш. Это удобно государству, но сомнительно справедливо, если авария произошла из-за ошибки в коде или хакерской атаки. Выход здесь один — страхование, где ответственность смещается к финансовым институтам.
Разработчик в роли Бога
Когда за ошибки в коде платят свободой
Логично искать вину у создателей. Если алгоритм ошибся — виноват разработчик. Но современный ИИ — это чёрный ящик. Даже инженер часто не понимает, почему система приняла конкретное решение.
Как судить за халатность там, где поведение не поддаётся полному предсказанию? Компании прикрываются коммерческой тайной, отказываясь раскрывать алгоритмы. Возникает зона размывания ответственности, где производитель кивает на «самообучение», а жертва остаётся без объяснений.
Вероятно, нас ждёт режим строгой ответственности для разработчиков — дорого и параноидально, но иначе доверие не восстановить.
Проблема вагонетки
Кто напишет правила убийства
Самый мрачный сценарий — неизбежная авария. Кого спасти: пассажира или пешеходов? Мы заставляем программистов писать алгоритм морального выбора, фактически решая, чья жизнь ценнее.
Парадокс в том, что люди хотят «максимального спасения», но не готовы покупать автомобиль, который пожертвует ими. Если выбор зашит в код, кто убийца — машина или инженер, поставивший галочку?
ИИ лишён контекста и действует по статистике. Единственный путь — прозрачность и независимый аудит алгоритмов, иначе этика превратится в скрытую настройку.
Когда за рулём действительно никого нет
Ответственность без виновного
Перекладывая вину на машины, мы пытаемся очистить собственную совесть. Но ИИ — лишь зеркало наших решений и компромиссов. В эпоху беспилотников справедливость всё чаще будет означать страховые выплаты и математические разборы, а не моральное возмездие.
Мы получаем удобство, но платим неопределённостью. Будущее, где никто не может объяснить ключевое решение, требует новых правил доверия.
Пока чёрный ящик закрыт, всё кажется безопасным. Он открывается лишь после катастрофы — и тогда выясняется, что за рулём не было никого ни физически, ни юридически.
А вы готовы жить в мире, где вопрос «кто виноват?» всё чаще будет оставаться без человеческого ответа?
Толян и Нейросеть.
|
| |
| |
|
|