Итак, то, что было невозможно в прошлом, становится возможным сейчас.
А вот терминология, которой он пользуется.
читать дальшеИИ — искусственный интеллект, интеллект, равный человеческому, или превосходящий его.
ИИ+ — интеллект заведомо выше человеческого.
ИИ++ — интеллект, намного превосходящий человеческий.
Небольшое отступление. Чалмерс в своей лекции выступил скорее как футуролог, нежели философ. Выводы, которые он сделал, быть может, базируются на ложных посылках. Но в качестве фантаста он, по-моему, весьма неплох.
Применял он логический вывод. Кто с этим знаком хоть чуть-чуть, может в этом убедиться )).
читать дальшеНа этом фото лекции Чалмерса кончаются и начинается суть.
читать дальшеСначала предпосылки сингулярности по Чалмерсу.
Сингулярность:
- ускоряющееся изменение в технологиях;
- непредсказуемые последствия;
- искусственный интеллект выше человеческого.
Он рассматривает два вида сингулярности.
1) Взрыв интеллекта
Тут мой конспект очень краток, но я постараюсь развернуть.
Представьте себе машины, которые делают другие машины. Как только эти машины становятся хоть чуть-чуть умнее людей, они начинают делать другие умные машины лучше, чем это делали люди. Каждое новое поколение машин неизбежно становится всё умнее, если ничто этому не препятствует. Умные машины => еще более умные машины => еще более умные машины... И так ad infinitum. Взрыв! (Наступление сингулярности)
2) Взрыв скорости
Есть такой закон Мура... Не знаю, знает ли о нем Чалмерс. Но говорит он вот что.
Вычислительная способность компьютеров удваивается за все более короткие сроки.
Пусть она удваивалась за год, затем она удвоится за полгода, затем, за три месяца, затем, за 1,5 месяца, затем.... 1 час, 1 минута, 1 секунда... Взрыв!
Вот такая вторая сингулярность.
Мы будем рассматривать, говорит Чалмерс, только интеллектуальную сингулярность, хотя взрыв скорости тоже важен.
Возникающие вопросы
"Сингулярность поднимает вопросы жизни и смерти".
1) Возникнет ли информационный взрыв?
2) Как мы должны его преодолеть?
3) Сможем ли мы встроиться в пост-сингулярный мир?
Вот.
Основные постулаты таковы. Если не будет никаких ограничений, то как только возникнет интеллект, равный человеческому, дальше человек перестает контролировать ситуацию. Более совершенные машины в отсутствие сдерживающих факторов создают еще более совершенные с точки зрения интеллекта машины... И т.д. и т.п. И так до бесконечности. Человек оказывается лишним звеном.
А создание интеллекта, равного человеческому, говорит Чалмерс, лишь вопрос времени.
Ну а как только он создан, дальше уже все по описанному пути катится в тартарары.
Правда, дальше пошли смешные вещи. Он сказал, что по прогнозам 2000-го года ИИ должен был быть создан в 2035 году. Сейчас считается, что ИИ будет создан приблизительно в 2045-м году. Т.е. ИИ всегда в 35 годах впереди нас.
Дальше он перешел к предпосылкам создания ИИ, на которых я долго останавливаться не хочу, ибо они достаточно тривиальны.
Типа, если человеческий мозг — машина, мы скоро будем иметь вычислительные мощности, чтобы эмулировать эту машину, а как только мы ее эмулируем, это и будет ИИ.
Тут он приводит конспективно доводы философов в пользу невозможности ИИ.
читать дальше
Но, тут же разбивает их в пух и прах. Причем, на мой взгляд, его "пух и прах" полностью совпадает с аргументами Тьюринга. Поведение, демонстрирующее интеллект = интеллекту. Ну-ну. Не стану спорить.
Далее он говорит о т.н. расширяемых методах. Т.е. вправду ли, если у нас есть более умная машина, она в свою очередь способна создать еще более умную машину, потому что имеет для этого лучшие методы, чем более глупая машина...
Не все методы, говорит Чалмерс, расширяемы.
Метод воспроизводства естественного интеллекта не расширяем. Иначе если вы имеете классный секс, у вас рождается гений (простите, дословное цитирование: наши философы идут на многое, чтобы их лекции имели резонанс... пусть даже сиюминутный).
Но вот с машинами примем, что методы расширяемы. Однако, всё это верно в отсутствии defeaters. Defeater = anything that prevents systems from manifesting their capacities. Цитирую дословно. Перевожу как некие "сдерживающие факторы". Так вот, оказывается, что их есть у него.
Вот некоторые препятствия.
Представим себе, что мы создали ИИ0, а он уже сам создал ИИ1, более совершенный, чем он сам.
И вот, этот самый ИИ1, если он на самом деле умен, еще сто раз подумает, нужно ли ему создавать ИИ2, умнее чем он сам. Или, может, не стоит... "Может, это плохая идея?" — думает ИИ1.
Второе обстоятельство, приводимое Чалмерсом, как раз касается категорического императива и Канта.
Он говорит, что суперинтеллект будет суперрациональным и (если Кант был прав) суперморальным.
(И они не смогут нас уничтожить. Хе-хе)
Но прав ли Кант?
===
Далее мои записи обрываются, а память отказывает. Рука бойцов колоть устала.
Это не вся лекция, но значительная ее часть.