Услышал в новостях по ТВ благодушные и наивные рассуждения программеров, занимающихся ИИ о его безопасности для людей.
И попытался на них ответить - для себя. (Цитата - ответ.)
1. "Да они никогда не станут умнее человека, поэтому не опасны для него."
Разве только в этом проблема? Автомобиль тоже не умнее человека. Но вполне может его задавить, если выйдет из под контроля.
2. "ИИ - это всего лишь математические алгоритмы. Они ничего не делают, всего лишь меняют веса в слоях нейросети."
Вот это уже серьезнее.
Это примерно сказать, типа: "наши мысли - это всего лишь электроимпульсы в мозгах"
Это уже - реально показатель глупости и необразованности узких специалистов.
А по серьезному - пробелы в философском образовании. Это пример линейного мышления . Непонимание, что редукционизм тут не работает. И как наше мышление не сводится к электроимпульсам, так и то, что уже сейчас делают нейросети - не сводится к алгоритмам. Очевидно, что нейросети уже вышли на совсем другой уровень.
На мой взгляд:
1. Когда произошел принципиальный скачок от обычных программ к зачаткам интеллекта?
Ответ.
Когда программы (нейросети) научились распознавать картинки - отличать на них кошек от собак. Это только кажется забавой... И дело не в картинках.
2. Что такое распознавание с точки зрения философии?
Это задача классификации. Любая классификация это обобщение.
Это значит что внутри программы (нейросети) появился новый - метауровень абстракции. На нем хранится уже не информация о конкретной собаке - в виде картинки из пикселей, а метатаинформация. Это информация о классе всех собак, о собаке вообще.
А это уже - абстракция. Т.е. сеть уже умеет на основе данных, поступающих на ее вход - формировать абстрактные понятия. Причем - путем самообучения.
Это примитивное, но уже начало абстрактного мышления.
3. А что дальше? Ничто нам не мешает этот абстрактный уровень - тоже подать на вход нейросети и использовать как данные.
Вот уже получили следующий уровень абстракции, который умеет работать не с конкретными картинками, а с абстрактными понятиями "кошка" и "собака". И уже находить общие правила для кошек вообще и собак вообще. И так далее - рекурсивно - вверх по иерархии абстракций вплоть до уровня человека.
Идея понятна...
4. Совершенно очевидно, что уровней абстракции может быть сколько угодно.
И я не вижу принципиальных ограничений для нейросетей - в плане роста их возможностей. И результаты chatGPT4 - это подтверждают.
Все идет к появлению искусственного интеллекта. Это будет не человеческий интеллект, не имеющий понятия об этике.
В этом и опасность. Не нужно много фантазии, чтобы понять, что произойдет, если таким интеллектом будут управлять люди, тоже не имеющие понятия об этике...
5. Люди не всегда осознают, что происходит. Возможно не успевают осознать, т.к. слишком все быстро.
ИИ - это как раз тот случай, когда даже авторы - (талантливые, но узкие специалисты) - не всегда понимают, что они создают(в широком смысле). Поэтому технарей - программеров обязательно должны контролировать от государства специалисты - гуманитарии. (Этический контроль)
ПС
Сечас реально - НИКТО не понимает, как работают нейросети, чтобы их контролировать. По сути - методом тыка.
Происходит та самая чудодейственная "самоорганизация" в сетях, которая все и делает. 🙂
Нет. Программисты конечно понимают - но на низком примитивном уровне алгоритмов. Но этот самый низкий - примитивный уровень совершенно не позволяет понять, что происходит десятью уровнями выше. Программист понятия не имеет, как из пикселей получается 10 - й уровень абстракции.
Так же как измеряя напряжение электрических импульсов в голове - невозможно понять мысли.
Редукционизм тут не работает.
А работает магия, которая называется "самоорганизация в нелинейных системах".
Снова моя любимая тема - синергетика 🙂