На плечах гигантов, на спинах электронов
Да простят меня читатели, которые читают и сообщество!
Проматывайте.
Просто правда для меня это важно...
преамбулаЯ сейчас пишу статью, которая посвящена приобретению знаний.
"Приобретение знаний" имеется в виду "интеллектуальными системами", но пока ни о каких конкретных системах речи не идет. Пока тут разговор только о модели человеческой долговременной памяти.
Всё, что будет написано ниже, это не статья, и не черновик статьи, — это, скорее, мысли о том как работает человеческая память.
Я здесь совершеннейший не-специалист.
Поэтому очень прошу: любое ваше мнение для меня важно!
Допускаю с равной вероятностью, что то, что здесь написано:
а) общеизвестно и любой дурак кроме меня об этом знает;
б) полная туфта, и в принципе не содержит рационального зерна;
в) интересно но неверно;
г) верно, но из этого ничего нельзя вывести;
и т.д.
Одним словом, нижайшая просьба прочитать и написать пару слов: не только и не столько выбрать вариант из вышеперечисленных оценок, сколько высказать свое мнение! Просьба как к математикам, так и к психологам и философам, а также ко всем-всем-всем, потому что "проблема", собственно, "общечеловеческая".
Копирайт тут везде мой)))
Стиль ровно такой, какой можно выжать за два часа с чистого листа (то есть будет рихтоваться).
Спасибо!
Warning: текста много.
Приобретение знанийПриобретение знаний
Как человек узнает что-то новое?
Качество усвоения новых знаний напрямую зависит от того, как тесно они связаны с теми знаниями, которые у нас уже имеются. Чем теснее связь, тем больше вероятность того, (вероятность здесь не совсем точное слово), что полученное новое знание запомнится, сохранится в памяти.
Другими словами.
Каждый человек обладает своей моделью мира. Это его представление об объектах реальности (сущностях) и связях между ними.
Пусть модель эта представлена в некотором «материальном» виде: как множество имен объектов с перечисленными свойствами, и множество всевозможных связей между этими объектами.
Если начертить на бумаге схему, получится большой-большой граф, состоящий из огромного количества вершин (понятий, которыми мы обладаем) и помеченных дуг (связей между ними). Про свойства я сейчас нарочно не говорю: к свойствам потом вернемся отдельно.
И вот, представим, что мы узнаем новый объект действительности. Совсем новый, а не что-то дополнительное о старом. То есть в нашем графе для него нет вершины. Вершина создана. Пока она остается изолированной вершиной, нет практически никаких шансов, что это знание «осядет» в долговременную память. Потому что 1) у нас для этого знания нет никаких ассоциаций с тем, что нам уже известно; 2) если таких ассоциаций нет, то наверняка это знание не будет востребовано в дальнейшем (оно из какой-то чуждой нам области действительности). Здесь есть оговорка: если мы начинаем что-то изучать с нуля, и оно нам заведомо понадобится. Тогда, во-первых, наверняка это знание будет запоминаться вновь и вновь, а во-вторых, умный человек так или иначе будет ассоциировать его с тем, что уже знает.
Так вот, что я хочу сказать: чем больше связей у новой вершины со старыми, чем теснее они, тем легче этому знанию интегрироваться в нашу модель мира. Как если бы в ней изначально были пустые места, лакуны, – специально отведенные для этого знания.
Но дело тут не в одном количестве ассоциаций.
Ассоциация может быть даже единственной – главное, чтоб она была достаточно сильной.
А вот теперь пример из жизни.
Встречаются два давних друга, которые не виделись лет десять. И одни другому говорит: вот мой новый телефон: 365-32-17.
Второй отвечает: жаль, записать некуда, а памяти на номера у меня никакой…
Тогда первый говорит: да что ты, это легко! 365 – дней в году; 32 – зуба у человека, 17 – год ВОСР. Вот и всё.
Обычная мнемотехника, которая работает на ассоциациях. И телефон действительно запомнен. Конечно, не во всех случаях бывает так. Вспомним хотя бы «Лошадиную фамилию». Однако же именно ассоциации играют одну из главных ролей в долговременной памяти.
Таким образом, как мы только что увидели, «близость понятий» может быть как естественной, так и искусственной.
Долговременная память устроена таким образом, что не все знания доступны в равной мере. Если представить память в виде аморфной массы, в виде, предположим, океана, то чем ближе к поверхности, тем знание доступнее. А расстояние до поверхности определяется востребованностью знаний на каждый конкретный момент времени. Любое знание, (кроме возможно, повседневно-бытового) – «тяжелое». Оно имеет тенденцию тонуть – опускаться вниз. Просто в силу того, что знание у самой поверхности самое динамичное и всё время замещается и пополняется. Только если всё время пользоваться знанием – активизировать его, т.е. переводить из «нейтрального состояния» в котором оно находится в долговременной памяти, в активное: переносить его в оперативную память, – только тогда оно будет удерживаться на поверхности. Иначе – заместится чем-то более новым и/или востребованным (нужным).
И вот если даже знание было в долговременной памяти и «утонуло», то вероятность выудить его оттуда тем выше, чем больше ассоциированного с ним знания осталось близко к поверхности.
Тогда как за ниточку, по ассоциации, любое знание можно вытащить из самых глубин.
С человеком всё «понятно».
Возможно ли создать искусственную систему, которая хранила бы знания подобным образом. Которая могла бы оперировать такими вот ассоциациями?
Ассоциации не должны быть (как это делается чаще всего) таксономическими, родовидовыми связями, сохраняющими наследование свойств. Это должно быть чем-то совершенно иным!
Вот что я предлагаю.
Я предлагаю взять за основы не имена объектов и связи между ними, а набор всех-всех свойств, с помощью которых мы образуем ассоциации. Под «свойствами» можно в некоторых случаях понимать и сами объекты, а также и события. (Например, кто-то хорошо усвоил теорему Ролля только потому что завалил ее на экзамене! И теперь стоит только вспомнить это злополучный день, как теорема Ролля с доказательством как на ладони!)
Получаем для каждого свойства множество сущностей, которые этим свойством обладают. В каждом таком множестве сущности окажутся проассоциированными друг с другом этим общим свойством.
Например, зеленые попугаи будут ассоциироваться с зелеными автомобилями и зеленой травой и листьями по свойству «зеленый».
Понятно, что каждая сущность попадет в несколько (иногда очень много) таких множеств.
И вот когда мы узнаем о каком-то новом объекте, мы помещаем его сразу во все множества свойств, которыми он обладает.
Тем самым, мы умножаем его многократно (при условии, что между всем копиями этого объекта у нас должно установиться отношение эквивалентности, чтобы мы всегда помнили: речь идет об одном и том же объекте, а не о множестве разных). Чем больше ассоциаций вызывает у нас новый объект, тем больше он размножится, тем в большие места памяти попадет. И даже если потом в одном месте он будет «забыт», всегда можно будет извлечь его из другого места, и воспользовавшись цепочкой эквивалентностей, восстановить образовавшийся «пробел памяти». Может быть, именно от этого человеческая память устойчива…
Понятно, что приведенный выше пример с цветом не совсем показателен. Кластеры, на которые разбиваются объекты по цветам, слишком обширны и разнородны. Однако же многим легко вспомнить автора книги и название, вспомнив цвет обложки!
Как задел на будущее: для создания многочисленных дублей объекта (когда уже речь зайдет о компьютерном представлении) надо будет использовать фрактальную теорию: создать много «маленьких» частей, каждая из которых была бы идентична целому, но занимала бы совсем немного места в памяти (сумма всех таких частей – гораздо меньше, чем одно целое, из которых они составлены). Но это уже потом.
В прошлых своих работах я пыталась моделировать творческое мышление. Здесь об этом речь не идет: просто пусть мы читаем учебник и узнаем то, чего раньше не знали. Или получаем другое, уже готовое, знание. Однако же при рассмотрении творческого мышления такой подход тоже должен сыграть свою роль. Метафорическое мышление, ассоциативное мышление часто помогают открыть что-то новое на основе нестандартного применения старого знания. Здесь как раз и может пригодиться анализ принадлежности объектов к общим множествам.
Итак. Продолжим. Если пока оставить в стороне «силу ассоциаций», «близость», которые мы пока не можем измерять, то пусть пока что ассоциация либо есть либо ее нет. То есть объект либо входит в множество, названное именем данного свойства, либо не входит.
Чем больше ассоциаций, тем, естественно, надежней мы что-то запомнили.
(Объем памяти для этого лишнего запоминания не увеличивается, хотя объект и дробится).
Например, возьмем тот же номер телефона:
365-32-17.
Если человек математик, ему проще запомнить 32 как 2^5, а не как количество зубов. Однако одно не противоречит другому. Значит, число 32 попало у нас уже как минимум в два различных множества, что увеличило надежность запоминания вдвое.
Если мы вдруг забудем про зубы, мы можем вспомнить про 2^5, и тогда можно вспомнить, что и зубов 32! )))
Или наоборот.
Константа е=2,718281828459045…
Это знают почти все, кто так или иначе связан с математикой.
Однако человечество делится на два непересекающихся множества (правда, разбиение не полно): одни выучивают е, используя год рождения Льва Толстого – 1828, другие же наоборот, – год рождения Льва Толстого помнят исключительно благодаря числу е!
Получается, что любому предмету, сущности реального мира, соответствует много одинаковых образов, связанных отношением эквивалентности как между собой так и с самим объектом.
Таким образом, информация обладает повышенной устойчивостью.
Рассмотрим пример, в котором количество свойств будет не слишком большим.
Смоделируем предметную область, состоящую из плоских разноцветных многоугольников.
Будем рассматривать следующие свойства:
1. количество углов;
2. равенство сторон;
3. равенство углов;
4. параллельность сторон;
5. выпуклость;
6. цвет.
Это не значит, что в нашей предметной области 6 множеств. Их гораздо больше:
N= N1+(N1+1)+[N1/2]+ N1+2+N2,
Где первое слагаемое равно количеству множеств, соответствующему разному количеству углов рассматриваемых многоугольников: от 3 до N1-2.
Второе слагаемое показывает сколько сторон в многоугольнике равны (от 2 до N1-2).
Третье слагаемое: количество возможных пар параллельных сторон,
Четвертое: количество равных углов;
Пятое – 2 – отвечает за два множества, образованных по свойству «выпуклость», и наконец, последнее задает разбиение по N2 цветам.
Пусть мы узнаем о существовании объекта «зеленый ромб» (все объекты мы задаем с точностью до преобразования подобия), то есть в нашей модели есть идеальный зеленый ромб (сущность-прототип), который определяется интенсионально: перечнем своих свойств. (Множество свойств в таком пространстве идеальных объектов обязано быть полным).
Тогда наш идеальный ромб разделится на 7 своих частей-дубликатов:
Первая часть войдет в Множество Четырехугольников;
Вторая часть – в Множество Четырех Равных Сторон;
Третья – в Множество Пар Параллельных Сторон;
Четвертая и пятая – в Множество Двух Равных Углов: для одной и другой пары противоположных углов;
Шестая – в Множество Выпуклых Фигур;
Седьмая – в Множество Зеленых фигур.
Для ромба описание явно избыточно, Но не для других плоских фигур.
«Лишняя» информация будет способствовать дополнительной устойчивости.
И тут мы видим, что если перед нами объект «зеленый квадрат», нам никак не отличить его от «зеленого ромба».
Поэтому введем еще одно свойство: количество прямых углов.
Для семейства множеств от 1 до N1 (количество прямых углов для N1-угольников (с возможными самопересечениями)), – зеленый ромб не войдет ни в одно из них!
Тогда, если мы построим модель для зеленого ромба, она будет выглядеть следующим образом:
(«Зеленый ромб» обозначим через: Ei)

Проматывайте.
Просто правда для меня это важно...
преамбулаЯ сейчас пишу статью, которая посвящена приобретению знаний.
"Приобретение знаний" имеется в виду "интеллектуальными системами", но пока ни о каких конкретных системах речи не идет. Пока тут разговор только о модели человеческой долговременной памяти.
Всё, что будет написано ниже, это не статья, и не черновик статьи, — это, скорее, мысли о том как работает человеческая память.
Я здесь совершеннейший не-специалист.
Поэтому очень прошу: любое ваше мнение для меня важно!
Допускаю с равной вероятностью, что то, что здесь написано:
а) общеизвестно и любой дурак кроме меня об этом знает;
б) полная туфта, и в принципе не содержит рационального зерна;
в) интересно но неверно;
г) верно, но из этого ничего нельзя вывести;
и т.д.
Одним словом, нижайшая просьба прочитать и написать пару слов: не только и не столько выбрать вариант из вышеперечисленных оценок, сколько высказать свое мнение! Просьба как к математикам, так и к психологам и философам, а также ко всем-всем-всем, потому что "проблема", собственно, "общечеловеческая".
Копирайт тут везде мой)))
Стиль ровно такой, какой можно выжать за два часа с чистого листа (то есть будет рихтоваться).
Спасибо!
Warning: текста много.
Приобретение знанийПриобретение знаний
Как человек узнает что-то новое?
Качество усвоения новых знаний напрямую зависит от того, как тесно они связаны с теми знаниями, которые у нас уже имеются. Чем теснее связь, тем больше вероятность того, (вероятность здесь не совсем точное слово), что полученное новое знание запомнится, сохранится в памяти.
Другими словами.
Каждый человек обладает своей моделью мира. Это его представление об объектах реальности (сущностях) и связях между ними.
Пусть модель эта представлена в некотором «материальном» виде: как множество имен объектов с перечисленными свойствами, и множество всевозможных связей между этими объектами.
Если начертить на бумаге схему, получится большой-большой граф, состоящий из огромного количества вершин (понятий, которыми мы обладаем) и помеченных дуг (связей между ними). Про свойства я сейчас нарочно не говорю: к свойствам потом вернемся отдельно.
И вот, представим, что мы узнаем новый объект действительности. Совсем новый, а не что-то дополнительное о старом. То есть в нашем графе для него нет вершины. Вершина создана. Пока она остается изолированной вершиной, нет практически никаких шансов, что это знание «осядет» в долговременную память. Потому что 1) у нас для этого знания нет никаких ассоциаций с тем, что нам уже известно; 2) если таких ассоциаций нет, то наверняка это знание не будет востребовано в дальнейшем (оно из какой-то чуждой нам области действительности). Здесь есть оговорка: если мы начинаем что-то изучать с нуля, и оно нам заведомо понадобится. Тогда, во-первых, наверняка это знание будет запоминаться вновь и вновь, а во-вторых, умный человек так или иначе будет ассоциировать его с тем, что уже знает.
Так вот, что я хочу сказать: чем больше связей у новой вершины со старыми, чем теснее они, тем легче этому знанию интегрироваться в нашу модель мира. Как если бы в ней изначально были пустые места, лакуны, – специально отведенные для этого знания.
Но дело тут не в одном количестве ассоциаций.
Ассоциация может быть даже единственной – главное, чтоб она была достаточно сильной.
А вот теперь пример из жизни.
Встречаются два давних друга, которые не виделись лет десять. И одни другому говорит: вот мой новый телефон: 365-32-17.
Второй отвечает: жаль, записать некуда, а памяти на номера у меня никакой…
Тогда первый говорит: да что ты, это легко! 365 – дней в году; 32 – зуба у человека, 17 – год ВОСР. Вот и всё.
Обычная мнемотехника, которая работает на ассоциациях. И телефон действительно запомнен. Конечно, не во всех случаях бывает так. Вспомним хотя бы «Лошадиную фамилию». Однако же именно ассоциации играют одну из главных ролей в долговременной памяти.
Таким образом, как мы только что увидели, «близость понятий» может быть как естественной, так и искусственной.
Долговременная память устроена таким образом, что не все знания доступны в равной мере. Если представить память в виде аморфной массы, в виде, предположим, океана, то чем ближе к поверхности, тем знание доступнее. А расстояние до поверхности определяется востребованностью знаний на каждый конкретный момент времени. Любое знание, (кроме возможно, повседневно-бытового) – «тяжелое». Оно имеет тенденцию тонуть – опускаться вниз. Просто в силу того, что знание у самой поверхности самое динамичное и всё время замещается и пополняется. Только если всё время пользоваться знанием – активизировать его, т.е. переводить из «нейтрального состояния» в котором оно находится в долговременной памяти, в активное: переносить его в оперативную память, – только тогда оно будет удерживаться на поверхности. Иначе – заместится чем-то более новым и/или востребованным (нужным).
И вот если даже знание было в долговременной памяти и «утонуло», то вероятность выудить его оттуда тем выше, чем больше ассоциированного с ним знания осталось близко к поверхности.
Тогда как за ниточку, по ассоциации, любое знание можно вытащить из самых глубин.
С человеком всё «понятно».
Возможно ли создать искусственную систему, которая хранила бы знания подобным образом. Которая могла бы оперировать такими вот ассоциациями?
Ассоциации не должны быть (как это делается чаще всего) таксономическими, родовидовыми связями, сохраняющими наследование свойств. Это должно быть чем-то совершенно иным!
Вот что я предлагаю.
Я предлагаю взять за основы не имена объектов и связи между ними, а набор всех-всех свойств, с помощью которых мы образуем ассоциации. Под «свойствами» можно в некоторых случаях понимать и сами объекты, а также и события. (Например, кто-то хорошо усвоил теорему Ролля только потому что завалил ее на экзамене! И теперь стоит только вспомнить это злополучный день, как теорема Ролля с доказательством как на ладони!)
Получаем для каждого свойства множество сущностей, которые этим свойством обладают. В каждом таком множестве сущности окажутся проассоциированными друг с другом этим общим свойством.
Например, зеленые попугаи будут ассоциироваться с зелеными автомобилями и зеленой травой и листьями по свойству «зеленый».
Понятно, что каждая сущность попадет в несколько (иногда очень много) таких множеств.
И вот когда мы узнаем о каком-то новом объекте, мы помещаем его сразу во все множества свойств, которыми он обладает.
Тем самым, мы умножаем его многократно (при условии, что между всем копиями этого объекта у нас должно установиться отношение эквивалентности, чтобы мы всегда помнили: речь идет об одном и том же объекте, а не о множестве разных). Чем больше ассоциаций вызывает у нас новый объект, тем больше он размножится, тем в большие места памяти попадет. И даже если потом в одном месте он будет «забыт», всегда можно будет извлечь его из другого места, и воспользовавшись цепочкой эквивалентностей, восстановить образовавшийся «пробел памяти». Может быть, именно от этого человеческая память устойчива…
Понятно, что приведенный выше пример с цветом не совсем показателен. Кластеры, на которые разбиваются объекты по цветам, слишком обширны и разнородны. Однако же многим легко вспомнить автора книги и название, вспомнив цвет обложки!
Как задел на будущее: для создания многочисленных дублей объекта (когда уже речь зайдет о компьютерном представлении) надо будет использовать фрактальную теорию: создать много «маленьких» частей, каждая из которых была бы идентична целому, но занимала бы совсем немного места в памяти (сумма всех таких частей – гораздо меньше, чем одно целое, из которых они составлены). Но это уже потом.
В прошлых своих работах я пыталась моделировать творческое мышление. Здесь об этом речь не идет: просто пусть мы читаем учебник и узнаем то, чего раньше не знали. Или получаем другое, уже готовое, знание. Однако же при рассмотрении творческого мышления такой подход тоже должен сыграть свою роль. Метафорическое мышление, ассоциативное мышление часто помогают открыть что-то новое на основе нестандартного применения старого знания. Здесь как раз и может пригодиться анализ принадлежности объектов к общим множествам.
Итак. Продолжим. Если пока оставить в стороне «силу ассоциаций», «близость», которые мы пока не можем измерять, то пусть пока что ассоциация либо есть либо ее нет. То есть объект либо входит в множество, названное именем данного свойства, либо не входит.
Чем больше ассоциаций, тем, естественно, надежней мы что-то запомнили.
(Объем памяти для этого лишнего запоминания не увеличивается, хотя объект и дробится).
Например, возьмем тот же номер телефона:
365-32-17.
Если человек математик, ему проще запомнить 32 как 2^5, а не как количество зубов. Однако одно не противоречит другому. Значит, число 32 попало у нас уже как минимум в два различных множества, что увеличило надежность запоминания вдвое.
Если мы вдруг забудем про зубы, мы можем вспомнить про 2^5, и тогда можно вспомнить, что и зубов 32! )))
Или наоборот.
Константа е=2,718281828459045…
Это знают почти все, кто так или иначе связан с математикой.
Однако человечество делится на два непересекающихся множества (правда, разбиение не полно): одни выучивают е, используя год рождения Льва Толстого – 1828, другие же наоборот, – год рождения Льва Толстого помнят исключительно благодаря числу е!
Получается, что любому предмету, сущности реального мира, соответствует много одинаковых образов, связанных отношением эквивалентности как между собой так и с самим объектом.
Таким образом, информация обладает повышенной устойчивостью.
Рассмотрим пример, в котором количество свойств будет не слишком большим.
Смоделируем предметную область, состоящую из плоских разноцветных многоугольников.
Будем рассматривать следующие свойства:
1. количество углов;
2. равенство сторон;
3. равенство углов;
4. параллельность сторон;
5. выпуклость;
6. цвет.
Это не значит, что в нашей предметной области 6 множеств. Их гораздо больше:
N= N1+(N1+1)+[N1/2]+ N1+2+N2,
Где первое слагаемое равно количеству множеств, соответствующему разному количеству углов рассматриваемых многоугольников: от 3 до N1-2.
Второе слагаемое показывает сколько сторон в многоугольнике равны (от 2 до N1-2).
Третье слагаемое: количество возможных пар параллельных сторон,
Четвертое: количество равных углов;
Пятое – 2 – отвечает за два множества, образованных по свойству «выпуклость», и наконец, последнее задает разбиение по N2 цветам.
Пусть мы узнаем о существовании объекта «зеленый ромб» (все объекты мы задаем с точностью до преобразования подобия), то есть в нашей модели есть идеальный зеленый ромб (сущность-прототип), который определяется интенсионально: перечнем своих свойств. (Множество свойств в таком пространстве идеальных объектов обязано быть полным).
Тогда наш идеальный ромб разделится на 7 своих частей-дубликатов:
Первая часть войдет в Множество Четырехугольников;
Вторая часть – в Множество Четырех Равных Сторон;
Третья – в Множество Пар Параллельных Сторон;
Четвертая и пятая – в Множество Двух Равных Углов: для одной и другой пары противоположных углов;
Шестая – в Множество Выпуклых Фигур;
Седьмая – в Множество Зеленых фигур.
Для ромба описание явно избыточно, Но не для других плоских фигур.
«Лишняя» информация будет способствовать дополнительной устойчивости.
И тут мы видим, что если перед нами объект «зеленый квадрат», нам никак не отличить его от «зеленого ромба».
Поэтому введем еще одно свойство: количество прямых углов.
Для семейства множеств от 1 до N1 (количество прямых углов для N1-угольников (с возможными самопересечениями)), – зеленый ромб не войдет ни в одно из них!
Тогда, если мы построим модель для зеленого ромба, она будет выглядеть следующим образом:
(«Зеленый ромб» обозначим через: Ei)

зы
ничего конструктивного не скажу... только приведу иллюстрацию, которая касается асоциаций... и того от куда они берутся...
задание значит такое... вот типа фоты... ван эти фоты надо прописать... ну народ и прописыват... и образы (читай ассоциации) представляет
Тело змеи для броска...
Путь перечеркнут*...
*Дорожные знаки: "Поворот налево запрещен"
****
В парке дорожка
Сложный сплетает узор.
Жизни зигзаги!
****
Извилистым путём
По замкнутой прямой
К мечте из тонких грёз
Похожих на обман.
Но правда там... в конце.
*****
Взрослый ребенок.
Путь его долог, тернист...
И неразумен.
Выбор поэта.
Если захочет свернуть –
Небо с овчинку!
Но опускается ночь –
Путь завершился.
Замерло время...
Снег заметает следы...
******
Разве Дао прямо?
Моё кривовато.
Что за поворотом?
Поверну обратно.
Разве мысли строги?
Нет - мои игривы.
Что ж я у дороги
травкой сиротливой?
Что же ты дорога
странно колобродишь?
Посижу в раздумьи.
Дао на исходе.
поправьте меня, если я не прав.
Охохо...
издеваетесь вы...
Я понятия не имею, как это можно "формализовать"...
Я, блин, чайник натуральный (((((
Что делать-то? (((
Думаю, любой подкованный когнитивный психолог меня просто в пух и прах разнесет с моими построениями....
Carven von Xanadu принцип какого определителя? определителя матрицы? или я не туда?
память — это объективизированное знание
а я ожидала увидеть под катом совершенно другой текст - "о приобретении знаний"
Вообще вцелом не знаю как оценить или что сказать. Тут больше техники, да, и я с ней вцелом согласна. Как вариант. Но ведь есть еще и несколько другое.. например запоминание не всегда связано с этими ассоциативными цепочками.. фактов. Например у меня очень развито запоминание чего-либо с помощью такой странной "ассоциации" как запах. Или например к приобретению знаний (и запоминанию!) я бы отнесла еще познание окружающего мира ребенком через ощущения. Или через экстремальные события у людей (не знаю как попонятней выразиться, ты выражаешься намного понятней и профессиональней
Вообще у детей ведь не скажешь - что приобретение знаний связано с ассоциациям. Я думаю что и у взрослых не совсем все так логически просто при запоминании-познании. Все равно даже на химическом уровне я уверена, что без ощущений не обойтись. ИМХО
Я так понимаю, что статья будет на более узкую тему, чем то, что я описала выше, может,уточнить название статьи и тему, а?
P.S. Понимаю, что не в тему высказалась, понимаю, что ты ждешь скорее математического мнения, просто мне сейчас захотелось поговорить о чувствах (:
"в жизни". В интеллектуальных системах вполне можно )))
И в том узком смысле, в котором я рассматриваю память: как онтологию, модель мира (ничего больше), "то, что мы помним=знаем в данный момент (или можем вспомнить) о том, что вокруг нас".
Ничего больше мне от памяти в данный момент не надо.
foenix спасибо за комментарий ))))
Я и вправду, конечно, имею не такое широкое "поле исследования".
Однако же, если речь идет об искусственной системе, с одной стороны, она не может "ощущать", но с другой, никто ведь не запретит нам прописать ей насильно эти ассоциации, которые у нас связаны с ощущениями, запахами, и т.д.
Создадим подходящее свойство и присвоим его нашему ассоциативному ряду. И все дела.
Тут всё грубее и проще...
.........................................................................................
И вообще, люди, глупости здесь говорю одна я!
Вы даже и не пытайтесь со мной в этом тягаться!
Ну... Вроде бы и логично, но согласиться не могу.. Как-то не верится мне в такое щасте про глубинные знания и т.д.
Да, связь можно найти между двумя знаниями в абсолютно противоположных сферах. Но нахождение такой ассоциации скорее носит творческий процесс.
И как быть, например, с пассивными знаниями? Я люблю музыку, поэтому обычно запоминаю и текст, и мелодию, неважно на каком она языке (в основном на английском). И стоит мне услышать музыку песни, выученной в детстве, я сразу вспоминаю слова. Но при этом я никак не могу вспомнить слова, как только мелодия завершается. Или другое.. Читаю английский текст и все понимаю. Просят перевести на русский - не могу сформулировать. Потому что я понимаю на уровне каких-то образов, а сформулировать не могу. Это называется пассивный словарный запас, кажется. Насколько я понимаю, эти вещи несколько не укладываются в построенную модель..
Нет, определителя видов, ботанического или зоологического, госпожа - как биолог говорю) про определители матрицы я только читать начал, для себя, в целях редукции мозговой серости)
Вообще статья очччень понравилась - люблю когда сложные вещи написаны простым языком.
блин )))
где конструктивная критика? ))) у вас одна деструктивная )))
модель "моделирует" не ВСЕ свойства объекта, а только те, котрые исследователь считает существенными ))
Для меня сейчас существенны "знания", которые можно формализовать.
В противном случае мне с ними просто нечего делать, потому что я всё-таки не психолог и занимаюсь искусственными системами ))))
То есть я строю грубую модель, которая оперирует только скажем так знаниями, которые можно подвергнуть некоторому кодированию...
Одним словом, на теорию всего я не замахиваюсь )
Меня и малюсенький кусочек устроит!
Но однако спасибо!
Ругайте меня дальше!
Это полезно! )))
в кодировании возникнет проблема - какие свойства считать существенными. Машинка-то этого не знает..
а там разве нет таксономии? мне казалось наоборот, она там должна быть...
Это МОЯ прерогатива! Модель-то я пишу, а не машинка ))))
В популярных определителях, рассчитанных на сель-хоз.например, нужды таксономия испрользуется лишь постольку-поскольку, основные параметры там ассоциативны) посему и вспомнилось=)
Ну да. Просто я так понимаю - это все сведется к проблеме моделирования AI? Да, если мы разрабатываем простенькую базу данных, то все эти приоритеты мы можем запрограммировать, т.к. мы знаем тип данных, который будет обрабатывать программа.
А в искусственным интеллектом проблема в самообучении. Научить определять, какую информацию надо записать на диск из оперативной памяти, а какую можно безболезненно стирать (память-то не резиновая), разбивать новые знания на части согласно модели.. и т.д. и т.п. Это все жутко интересно, но, блин, я даже не могу представить хоть приблизительно, как это можно реализовать
Что? )
меня это в 20 лет тоже интересовало )))))))))))))))))
Дилетант не даст соврать
А.. И как быстро это прошло?)
Меня, наверное, так и продолжит интересовать, в конце концов это профессиональный такой интерес. Вот я выыырасту, пройду курс ТЯПа...
вспомнила про рекурсивные таблицы???
а память надо делить на "действующую" и...э..... как бы её назвать... ну блин "ископаемую"... ну и понятное дело "оперативную"...Дилетант ты делишь? я не поняла?
вспомнила про рекурсивные таблицы???
Вспомнила деревья грамматического разбора.)
это нечто валяется неподалеку от теории языков программирования. Ну, для языков программирования что нужно? Чтобы какая-то программа взяла, проверила написанное программистом и проверила на соответствие правилам языка программирования. Язык задается грамматикой, которая в свою очередь задается рекурсивными правилами.
Ну, самый простенький пример:
S -> AqS | fBcS | ~ //обозначу так пустую цепочку символов
A -> aA | ~
B -> reBer | ~
Здесь большими латинскими буквами обозначены нетерминальные символы алфавита грамматики, т.е. правила. Строчные латинские буквы - это то, что уже не преобразуется и получается на выходе. Вертикальная черта - это "или". Т.е. существуют два правила с одинаковой левой частью, и надо было записать это в двух строчках, однако не хочется.)
Все просто. есть цепочка, к примеру, aaqfreercq. И надо проверить, можно ли вывести в этой грамматике такую цепочку. Для этого строится дерево грамматического разбора. Есть две стратегии- восходящая и нисходящая, но нисходящую объяснить гораздо проще, она более интуитивно понятна.
Мы в ней берем правила и пытаемся из аксиомы S (забыла сказать - первое правило зовется аксиомой и из него, собственно, и выводятся все цепочки языка) вывести известные нам символы.
Программа пытается применить первое правило грамматики S-> AqS. Пока не видно противоречий, пытаемся применить правило A ->aA. Отлично! первый символ "а", ну так нам он и нужен! Снова применяем это правило (у нас рекурсивный вызов нетерминала А), снова все хорошо. А вот в третий раз получается несовпадение - ведь всего две буквы "а" в начале. Ищем другое правило для А, не противоречащее условию, находим - с выводом пустого символа. Итак, у нас есть aaqS, S вызывается снова, на этот раз в строке должно согласоваться с правилом, содержащим В. Ну и т.д. пока мы не выведем цепочку либо не переберем все варианты и не придем к выводу, что эта цепочка не принадлежит к языку, распознаваемому этой грамматикой.
Если получилось найти последовательность правил, которые выводят эту цепочку, то результат можно оформить в виде упорядоченного дерева, где узел - это нетерминал, его потомки - упорядоченные терминалы и нетерминалы, соответствующие одному из правил грамматики. Листьями дерева являются терминальные символы, т.е. как раз то, что нам нужно распознать. Отсюда другая стратегия разбора - снизу вверх, т.е. по существующей цепочке угадать последовательность правил снизу вверх, к аксиоме, а не наоборот.
Вроде бы околесица, громоздко и неудобно.. Однако примерно так и организованы языки программирования.
Ох.. Что-то совсем не по теме поста вышло
Ох.. Что-то совсем не по теме поста вышло
I seem to be innocent...
очень даже по теме... ведь "язык" не обязательно из букоф должен состоять, можноже создать язык свойств? или нет? а потом этот язык свойств... проверять по заданным (выбранным, нужным) правилам
Мы целый семестр рисовали нормальные формы Бэкуса-Наура )))))
Это немножко не так, как у Minority по форме, но по содержанию один в один ))))
В таком виде все программы писали!
Только мне это сейчас никуда.
Эти дела учат людей думать так, как "думают" компьютеры. А у меня обратная задача ))))
Minority А в искусственным интеллектом проблема в самообучении. Научить определять, какую информацию надо записать на диск из оперативной памяти, а какую можно безболезненно стирать (память-то не резиновая), разбивать новые знания на части согласно модели.. и т.д. и т.п. Это все жутко интересно, но, блин, я даже не могу представить хоть приблизительно, как это можно реализовать
Блин. Я уже перестала быть максималистом ))) Моя задача гораздо уже! Сейчас попробую сформулировать!
foenix не хватает цели написания статьи, постановки задачи, так сказать. Посему и критика наша не в тему. Ты ее знаешь, а мы нет
Да, простите, я исправлюсь ))))
Carven von Xanadu про сель-хоз я и не подумала... а ведь действительно....