Форум » Разговоры обо всем » Искусственное сознание » Ответить

Искусственное сознание

Admin: Интересно, а возможно ли создать какое-то сознание на базе несколько иной основы, чем создание компьютера с процессами, аналогичными процессам в нейронных сетях мозга собак и кошек? Ведь работу мозга можно моделировать программой, которая будет выполняться на обычном компьютере? Значит, можно и создать внутреннее переживание, которое живет внутри обычного компьютера, если написать программу такую? Ведь вирусы возможны, а почему более сложные структуры не построить программно? В том числе, и обладающие внутренними переживаниями и требующими program welfare?

Ответов - 37, стр: 1 2 All

Reinir: Я читал еще в 80-е годы некий НФ-текст (по-моему, он назывался "Витки"?), о разумной программе, самозародившейся в глобальной сети (которая тогда еще не называлась Интернетом). В сказочной форме тогда же это показала студия Диснея в фильме "Трон" (сейчас вышел сиквел). Правда, в СССР этот фильм не показывали. Если серьезно, то программа нужна очень сложная, и насколько я знаю, пока не очень понятно, как ее создать. Это же работы в направлении создание AI. Насколько я знаю, многие вовсе не пытаются смоделировать настоящие мозги "в железе", именно на программы рассчитывают.

Admin: А эмоции наверное, еще сложнее, чем Разум, создать?

krabo5: Admin пишет: А эмоции наверное, еще сложнее, чем Разум, создать? Это основная проблема при создании Искусственного Интеллекта - Разум без эмоций - машина!


Reinir: Admin пишет: А эмоции наверное, еще сложнее, чем Разум, создать? Эмоции - это проявления степени (не)удовлетворенности потребности. В принципе, ничего невозможного в их моделировании нет.

Стэнли: Reinir пишет: В сказочной форме тогда же это показала студия Диснея в фильме "Трон" (сейчас вышел сиквел). Правда, в СССР этот фильм не показывали. Reinir, а точно не показывали? Вы уверены?

Admin: Я как раз после "Трона" и подумал, а можно ли так в реальности. Интересно, в Троне чем осуществлялась сборка реального тела по виртуальной модели (когда герой девушку в реальность вытащил из компьютера)?

Reinir: Admin пишет: Интересно, в Троне чем осуществлялась сборка реального тела по виртуальной модели (когда герой девушку в реальность вытащил из компьютера)? Я видел только первый Трон. Но там тоже непонятно, как герой вернулся обратно Видимо, атомы для тела находились в спецкладовке рядом с компом и впрыскивались под сборочный луч по мере необходимости

krabo5: Когда компьютер научится делать ошибки (не программные сбои) и сомневаться в правильности принятого решения, только тогда можно говорить, что мы в начале пути по созданию Разума. Пока прерогатива такого поведения дана только человеку.

Admin: Может, начать с создания эмоций, а не сразу с Разума? Скопировать на искусственный носитель (программно ли, или в железо воплотить) мозг кошки/собаки со всеми его внутренними связями между нейронами. Кстати, тогда сразу же поднимется вопрос о защите таких объектов от жестокого обращения... ведь страдают не от того, что живые, а от того, что обладают внутренними переживаниями, которые могут быть и на другой "аппаратной основе", в том числе и на "железной". Живое в конечном счете - тоже механизм, пусть и очень сложный.

Reinir: Admin пишет: начать с создания эмоций Хм, а зачем? Смоделировать эмоции БЕЗ РАЗУМА - ИМХО, очень просто "А хотите, я его стукну - он станет фиолетовым!" (из старого советского мультфильма). krabo5 пишет: Когда компьютер научится делать ошибки (не программные сбои) Хм, это и так неизбежно при работе сложной системы. А сомнения - это сродни перебору вариантов.

krabo5: Reinir пишет: А сомнения - это сродни перебору вариантов. Типа задачи - из какого стога осёл начнёт есть? Простой перебор - это выбор оптимального варианта, а сомневаться в уже принятом решении (сделанном выборе)?

Admin: Reinir пишет: Смоделировать эмоции БЕЗ РАЗУМА - ИМХО, очень просто "А хотите, я его стукну - он станет фиолетовым! Но все же это не совсем то будет, ибо возможна модель эмоций в форме "чисто автоматической реакции", а нам надо, чтобы при этом были внутренние переживания, как у собак и кошек.

Reinir: Admin пишет: были внутренние переживания, как у собак и кошек. Чувства избегания или, наоборот, стремления? Но чем это не автоматическая реакция? Если наше положение (ощущения) не такое, какое мы хотим, значит, автоматически вохникает чувство неудовлетворенности. krabo5 пишет: а сомневаться в уже принятом решении (сделанном выборе) Поставить обратную связь - то есть постоянную проверку результатов выбора с исходной потребностью.

Admin: Reinir пишет: Чувства избегания или, наоборот, стремления? Но чем это не автоматическая реакция? Оно автоматическое, да, но я имел в виду другое - я имел в виду "субъективность", которой пока что нет у компьютеров и есть у собак и кошек. Субъективность может быть тоже на автоматических основах построена, но какое-то в ней есть неуловимое качество, которое я не могу выразить словами.

Reinir: Admin пишет: в ней есть неуловимое качество, которое я не могу выразить словами. Нужно представить формализованно.

krabo5: Reinir пишет: Поставить обратную связь - то есть постоянную проверку результатов выбора с исходной потребностью. В любом варианте без внесения дополнительной информации это приведёт к циклическому процессу, точней к зависанию программы - решение задачи с какого стога сена (слева или справа) начнёт есть осёл, если все остальные переменные идентичны.

krabo5: Если не пытаться изобретать велосипед, пока не придумали колеса, то наиболее свежая информация на эту тему здесь.

Admin: Чтобы не было зависания в случае Буриданова осла ситуации, можно ввести в алгоритм условие, что при продолжительности зависания больше некоторого критического времени включается квантовый генератор случайных чисел, который выдает значение выбора на основе неопределенности квантовых процессов (кстати, у нас в мозгу не на этой ли основе реализуется защита от Буридана?).

krabo5: Это в схеме обратной связи? тогда надо будет иметь N-е количество синхронизированных! квантовых генераторов, чтобы они подтвердили правильность выбора ситуации Буриданова осла, основанного на включении (n-1)-генератора. Цикличность при синхронных генераторах также неизбежна. Тут что-то другое. Задача несложная и уже наверное продумана. Просто мы не полностью описываем сомнения и ошибки.

Reinir: krabo5 пишет: ситуации Буриданова осла В жизни такая ситуация бывает редко. В случае ее порявления выбор нужно будет делать исходя из бросания монетки. krabo5 пишет: Просто мы не полностью описываем сомнения и ошибки. Я вообще не вижу здесь чего-то непонятного.

krabo5: Reinir пишет: Я вообще не вижу здесь чего-то непонятного. интересно, а возможен ли тогда будет такой форум между несколькими ИИ? Если они будут созданы по одной схеме? На самой из разумной из планет всё.....

krabo5: http://www.rbcdaily.ru/2011/05/25/cnews/562949980301576 Ученым удалось смоделировать альтруизм 25.05.2011 Артем Михайлов Возможно, в ближайшие годы люди окажутся отнюдь не высшими существами на земле и им придется брать пример с роботов. Это может быть связано с успешным развитием двух европейских исследовательских проектов. Первый из них называется ECAgents. Его цель — создание автономных роботов. Второй — Swarmanoid, в рамках которого проектируются системы машин, способных делать все то, что делает человек. С помощью проектов, на которые было выделено в совокупности порядка 6,8 млн евро, ученые попытались понять, что такое альтруизм, и смоделировали его у роботов. По сути, исследователи работали над созданием своеобразного алгоритма этого нравственного принципа, направленного к побуждению бескорыстных действий. Для эксперимента, поставленного швейцарскими исследователями — профессорами Дарио Флореано и Лораном Келлером, были использованы группы элементарных роботов, снабженных колесиками и сенсорами. Машины умели двигаться и перемещать предметы. Роботы управлялись нейронными сетями и имели код — нечто вроде виртуальной ДНК. Всего было 200 групп машин, в каждой группе — устройства со сходными «генами». Им было дано задание в ограниченном пространстве собирать символическую пищу — небольшие круглые объекты. Затем роботу была дана возможность принять решение: разделить «пищу» с участниками группы или оставить себе. Ученые отбирали группы, которые лучше всего справились с заданием, и смешивали их коды. Таким образом получалось новое поколение роботов. В итоге было создано 500 поколений. Выяснилось, что роботы с готовностью жертвовали своими пищевыми ресурсами, чтобы передать собственные «гены» дальше. По словам старшего научного сотрудника лаборатории экологии и охраны природы биологического факультета МГУ Владимира Фридмана, в данном случае речь идет о теории отбора родичей (правило Гамильтона): «Делясь с родственниками ресурсами, существо хотя и ухудшает свое собственное положение, но повышает шанс передать свои гены дальше по наследству. Фактически родственный альтруизм — наиболее изощренная форма эгоизма». Правда, в случае с моделированием участия к ближнему у роботов существуют некоторые оговорки. «Вероятно, заранее было задано то, что поведение робота жестко привязано к генам, а для реального поведения человека это несправедливо. На пути от гена к поведению есть масса факторов — влияние среды, обучение, воспитание. Кроме того, «жизненная» задача, которую решали роботы, слишком упрощенная по сравнению с той, с которой сталкиваются высшие животные в среде обитания», — комментирует биолог. Тем не менее эксперимент не только на элементарном уровне продемонстрировал то, как мог зародиться альтруизм, но и, возможно, приведет к созданию машин, которые начнут мыслить нравственными категориями.

Reinir: Это "животный альтруизм", нечто вроде поведения общественных насекомых. Но уже неплохо

Лесная: А когда птица-мать при приближении опасности улетает из гнезда, оставляя малышей - это что значит? Она отвлекает внимание чужака на себя, заботясь о птенцах, или наоборот, спасает себя, спасая, таким образом, "в своем лице" будущие поколения? К хищным птицам это не относятся, они за детишек просто порвут.

Вольфрекс: Может быть для искуственного сознания достаточно просто каких то общих программ для него... подобие инстинкта и потребностей... а в остальном дать ему самому возможность искать способы удовлетворения этих потребностей и смотреть до чего он додумается. Как-то вот так.. низнаю)) В общем задать ему общие потребности, некие инстинкты, рефлексы... общие и необходимые для его автономного существования... чтобы он избегал раздражители и стремился к достижению своих потребностей... но без инструкций о том как это делать.... предоставить ему самому возможность находить пути решения его проблем, чтобы таким образом в процессе проб и ошибок у него создавался личный опыт..... пускай остальная информация заполняется и накапливается в нём само в процессе его существования. Я думаю что для существования разума всё таки необходимы инстинкты и потребности.. на них ведь всё и базируется... даже альтруизм ведь отнюдь не безкорыстное явление... мы кому то помагаем потому, что это даёт нам определённое чувство удовлетворения... и кроме того это направлено на достижения той цели, которую мы считаем важной возможно в случаи с искуственным разумом некие аналоги инстинктов ему тоже необходимы, какие то базовые программы поведения, но задающие лишь цели а не чёткие инструкции к их исполнению. как то так))

krabo5:

Вольфрекс: Между прочим есть занимательная програмка A.L.I.C.E. A.L.I.C.E. — виртуальный собеседник, программа, способная вести диалог с человеком на естественном языке. Она создана по подобию первой программы-собеседника, Элизы, и использует технику эвристического сопоставления фразы пользователя с образцами в базе знаний. A.L.I.C.E. — одна из лучших в своём роде, она три раза (в 2000, 2001, 2004 годах) становилась победителем премии Лёбнера. Несмотря на это, ни A.L.I.C.E., ни другие программы не могут пока пройти теста Тьюринга. Жаль только что по русски нельзя с ней по общаться. А вот забавный лог нашёл с её участием Human: All robots are stupid ALICE: I don't think so. Human: you have another opinion? ALICE: What makes you think I have it? Human: you don't believe that all robots are stupid ALICE: Do you believe that all robots are stupid? I can't say I believe it, but I believe you. Human: are you robot? ALICE: How did you know I am a machine?. Really. Human: all robots are stupid and you are a robot, that means you are stupid ALICE: Hey, I'll tell my other robot friends you called me stupid. Human: I still think robots are stupid. ALICE: I will remember you said that when robots take over the World. Human: O_o http://bash.org.ru/quote/400676 А ещё узнал о забавной штуке: Премия Лёбнера (англ. Loebner prize) — премия, присуждаемая победителю ежегодного конкурса, который проводится с 1990 г, в которой соревнуются программы в прохождении теста Тьюринга. Наиболее «человечной» (по мнению судей) вручается премия в $3000. Первой программе, которая пройдёт стандартный (текстовый) тест Тьюринга будет вручена серебряная медаль и вознаграждение в 25,000$. Первой программе, которая пройдёт этот тест с использованием текстового, визуального и звукового подтверждения будет вручена золотая медаль и приз в 100,000$. После вручения золотой медали конкурс будет закрыт.

Лесная: Не открывается, ты накосячил чего-то со ссылью.

krabo5: Спешишь! Хотел ролик про Windows 8 вставить, а там адрес уже отличается, да и ролик чисто рекламный...

Вольфрекс: Лесная пишет: Не открывается, ты накосячил чего-то со ссылью. Ну. про Алису это из википедии http://ru.wikipedia.org/wiki/ALICE

Лесная: Тысячелетие интернета на Руси. Гостевая книга сайта россия.ру 1003г. Администратор: азм есьм провайдер всея Руси, братья и сестры, понеслася! ХI век. Всем прюветы. Искренне Ваши Кирилл и Мифодий! Есть клевые шрифты с ижицей! ХIII век. Реклама на сайте: Приглашаем на экскурсию по золотому кольцу России! Тефтонские рыцари: Отличная экскурсия! Отличные озера! Спасибо Александр Невский! От лица рыцарей: Карл и Йохан, те которые ехали в обозе с пенопластом. ХIV век. Монголо-татары: Отличная экскурсия! Отличное гостеприимство! Спасибо, что проводили до дому! ХVI век. Поляки: Отличная экскурсия! Отличные болота! Поели мухоморы, Кшишлов женился на лягушке-царевне! Ищите нас на Яндекс! ХVIII век. Шведы: Отличная экскурсия! Отличные земли! Спасибо Петру за гостеприимство! Петр I: Только что пробил Windows в Европу! Теперь больше трафика будет! Екатерина II: Продаю садовый участок в Северной Америке, 25 млн соток рядом лес, золото, грибы, два океана! ХIХ век. На сайте открыт поэтический форум! Пушкин и Лермонтов. 1812г. Реклама на сайте: Приглашаем на экскурсию по золотому кольцу России! Наполеон: Отличная экскурсия! Отличная погода! Классно позажигали в Москве! Спасибо, что проводили до дома! 1825г. Чат «Декабристы.ру» переехал на иркутский сервер. Смотри ссылку! 1838г. Декабристы: мы вернулись, всем чмоки! Привезли классные фотки с каторги! 1875г. Попов: только что изобрел радио! Поймал «Европу плюс». 1890г. Менделеев: Только что изобрел водку! Пойду, посплю! 1917г. Солдаты и матросы! Собираемся возле Зимнего, кататься на воротах! 1918г. Ленин: народ, где тут сайт с кипятком! Каплан Ленину: Лечу картавость испугом! 1941г. Реклама на сайте: Приглашаем на экскурсию по золотому кольцу России! 1942г. Гитлер: застрял на девятом уровне! Кто-то вообще дальше проходил? Сталин Гитлеру: Дурень, читай гостевую книгу сначала! 1945г. Гитлер: Прочел гостевую книгу сначала. Отличная экскурсия! Отличные люди! Спасибо за то, что проводили до дома! Куплю цианистый калий! Надо!!! 1956г. Хрущев: На гостевой отменена цензура! 1972г. Брежнев: Гостевая временно не работает! 1985г. Горбачев: Приняли сухой закон! 1986г. Приняли… 1987г. Меня кто-нибудь уважает вообще? 1991г. Ельцин: Произведена модернизация сайта с выделением пятнадцати серверов, с последующей прихватизацией! 2000г. Я устал! Я ухожу! 2003г. Путин для Джорджа Буша: Приглашаю на экскурсию по золотому кольцу России! Джордж Буш: Спасибо, лучше вы к нам!

krabo5: Да вообще-то в тему! Но ради праздника прощаем.

Лесная: А куда его еще? Мне понравилось, классная фишка. Могу перенести.

Reinir: Лесная пишет: Тысячелетие интернета на Руси. Гостевая книга сайта россия.ру Куча дат переврана. Кстати, Аляску продала не Катька. А Сашка Освободитель

Reinir: Вольфрекс пишет: ALICE: I will remember you said that when robots take over the World. вот это хорошо сказано

Лесная: Reinir пишет: Куча дат переврана. Кстати, Аляску продала не Катька. А Сашка Освободитель Это не я придумала, а сперла с другого сайта. И пенопласта тогда не было.

Reinir: Лесная пишет: И пенопласта тогда не было. Да, не было...



полная версия страницы