Искусственный интеллект. Проблемы.
Roman.S
Мастер
6/1/2013, 12:34:31 AM
Хорошо. Время покажет.
Если вы не против - можно разобрать, оставшиеся 5 "камней". По вашей классификации.
Если вы не против - можно разобрать, оставшиеся 5 "камней". По вашей классификации.
Lady Mechanika
Грандмастер
6/1/2013, 12:36:40 AM
(Roman.S @ 31.05.2013 - время: 20:34)
С удовольствием.
Хорошо. Время покажет.
Если вы не против - можно разобрать, оставшиеся 5 "камней". По вашей классификации.
С удовольствием.
Roman.S
Мастер
6/1/2013, 12:37:12 AM
(Nancy @ 31.05.2013 - время: 20:25)
(Roman.S @ 31.05.2013 - время: 20:03)
Я почему-то не удивлен.
(Roman.S @ 31.05.2013 - время: 20:03)
Сойдемся на том, что бысто создать ИИ - не получится?
Не знаю. Но он уже создается, ссылки давала. И прошу учесть что такие акулы бизнеса как НАСА и Google не вкладываются по крупному в долгоиграющие проекты. И уж если они вложились то располагают иными чем у нас данными по скорости реализации этого проекта. Я бы много отдала за возможность заглянуть в их папки. Так что выводы делайте сами. Я футуролог, мое дело прогнозировать будущее, а это уже дело настоящего.
Я вот честно, озадачена и обеспокоена другим аспектом. Что это произойдет слишком быстро и совершенно не на благо трансгуманистов, а на военщину со всеми вытекающими...
Всю их возню с ИИ опекает с пристрастием DARPA, а это очень дурной знак.
DARPA (англ. Defense Advanced Research Projects Agency — агентство передовых оборонных исследовательских проектов) — агентство Министерства обороны США, отвечающее за разработку новых технологий для использования в вооружённых силах. Миссией DARPA является сохранение технологического превосходства вооруженных сил США, предотвращение внезапного для США появления новых технических средств вооруженной борьбы, поддержка прорывных исследований, преодоление разрыва между фундаментальными исследованиями и их применением в военной сфере.
Я почему-то не удивлен.
Roman.S
Мастер
6/1/2013, 12:39:14 AM
(Nancy @ 31.05.2013 - время: 20:36)
(Roman.S @ 31.05.2013 - время: 20:34)
Отлично)
Создам топик - отпишусь в этой ветке и лично.
Благодарю вас за участие)
(Roman.S @ 31.05.2013 - время: 20:34)
Хорошо. Время покажет.
Если вы не против - можно разобрать, оставшиеся 5 "камней". По вашей классификации.
С удовольствием.
Отлично)
Создам топик - отпишусь в этой ветке и лично.
Благодарю вас за участие)
1NN
Акула пера
6/1/2013, 12:58:38 AM
(Nancy @ 31.05.2013 - время: 20:25)
Вот к этому, сударыня, я вас и подводил. Трансгуманисты - это люди. Продвинутые,
целеустремленные, увлеченные люди. Возможно, они авангард человечества.
Возможно, они хотят построить светлое будущее не только для себя, но и для
всех. Но для этого у них должны быть четкие цели и задачи. Если же трансгуманисты
не хотят ассоциировать себя с людьми, если их цели будут противоречить целям
человечества или просто их цели окажутся слишком расплывчатыми, то на лицо
все шансы, что ушлые военные и сверхолигархи очень ловко используют и трансгуманистов и их наработки в личных узкоутилитарных целях.
Не знаю. Но он уже создается, ссылки давала. И прошу учесть что такие акулы бизнеса как НАСА и Google не вкладываются по крупному в долгоиграющие проекты. И уж если они вложились то располагают иными чем у нас данными по скорости реализации этого проекта. Я бы много отдала за возможность заглянуть в их папки. Так что выводы делайте сами. Я футуролог, мое дело прогнозировать будущее, а это уже дело настоящего.
Я вот честно, озадачена и обеспокоена другим аспектом. Что это произойдет слишком быстро и совершенно не на благо трансгуманистов, а на военщину со всеми вытекающими...
Всю их возню с ИИ опекает с пристрастием DARPA, а это очень дурной знак.
DARPA (англ. Defense Advanced Research Projects Agency — агентство передовых оборонных исследовательских проектов) — агентство Министерства обороны США, отвечающее за разработку новых технологий для использования в вооружённых силах. Миссией DARPA является сохранение технологического превосходства вооруженных сил США, предотвращение внезапного для США появления новых технических средств вооруженной борьбы, поддержка прорывных исследований, преодоление разрыва между фундаментальными исследованиями и их применением в военной сфере.
Вот к этому, сударыня, я вас и подводил. Трансгуманисты - это люди. Продвинутые,
целеустремленные, увлеченные люди. Возможно, они авангард человечества.
Возможно, они хотят построить светлое будущее не только для себя, но и для
всех. Но для этого у них должны быть четкие цели и задачи. Если же трансгуманисты
не хотят ассоциировать себя с людьми, если их цели будут противоречить целям
человечества или просто их цели окажутся слишком расплывчатыми, то на лицо
все шансы, что ушлые военные и сверхолигархи очень ловко используют и трансгуманистов и их наработки в личных узкоутилитарных целях.
alim
Мастер
6/2/2013, 9:59:58 PM
(Nancy @ 31.05.2013 - время: 15:55)
С этим определением я полностью согласен. Но это определение именно "в широком смысле", на некоем философском или мировоззренческом уровне. Оно не позволяет делать конкретных прогнозов, и разрабатывать конкретные программы.
Разум - основообразующее свойство некой сложной системы(моно или поли) осуществлять целенаправленную, упорядочивающую, созидательную деятельность в отношении себя и окружающей среды, также включающую в себя способность оперировать информацией в области субъективной реальности для предварительного моделирования ситуаций, оценки перспектив и просчета вариантов на поиск ошибок.
А вот это определение я уже должен признать полностью неудовлетворительным. Ключевое слово в этом определении "целенаправленную". А что такое целеполагание? Это осознание некой реальности, как должной, как то, к чему необходимо стремится. Осознание невозможно без сознания, Сознание невозможно без интеллекта, без разума. Таким образом, в определение разума неявно заложено наличие это самого разума, т.е. определение несет в себе известный логический порок, называемый "порочный круг".
Я настаиваю на своем определении, не для того, что бы устраивать тут детские разборки в песочнице, типа "чья машинка круче". Я готов выслушать конструктивную критику (даже именно хотел бы услышать), но только не на уровне: " А ты кто такой? Че, самый умны че ли?"
Я привел тут свое определение исключительно для того, что бы обосновать те выводы, к которым лично я прихожу. Ну и собственно выводы:
1. ИИ невозможно создать в единственном экземпляре, Можно создать популяцию устройств, обладающих ИИ.
2. Невозможно создать ИИ, не имеющее доступа к воздействию на физическую реальность.
3. Невозможно каким-либо образом вшить с сознание ИИ какие-либо ограничения. И вообще невозможно как-либо ограничить свободу воли ИИ. Мы можем (безусловно можем!) создать устройство, которое будет наделено разумом, но содержание этого разума определить заранее невозможно. ИИ сам и только сам будет принимать свои решения, сам и только сам будет определять свое отношение к любым явлениям бытия, в том числе и к старому человечеству. Создавая ИИ мы не можем знать о чем он будет думать, ровно так же, как при зачатии обычного ребенка, мы не можем знать заранее, вырастет из него преступник, супер-террорист, ненавидящий все человечество, какой-нибудь диктатор, или из него вырастет святой, подвижник и т.п. Любая личность свободна, в том числе и личность ИИ. Другое дело, что ИИ будет лишен природных пороков, присущих биологическому человеку: агрессия, безотчетный страх, привязанность к плотским наслаждениям и т.п.
4. ИИ безусловно будет обладать эмоциями. Другое дело, что эти эмоции будут иными, чем у современного человека, возможно такими, какие мы и представить не можем.
5. Для создания ИИ есть все технологические предпосылки, он может быть создан буквально в любой момент.
Если я что-то упустил, спрашивайте - я отвечу.
Определение разума -
Разум (в широком смысле) - это тенденция к усложнению, упорядочению, повышению уровня организации систем.
С этим определением я полностью согласен. Но это определение именно "в широком смысле", на некоем философском или мировоззренческом уровне. Оно не позволяет делать конкретных прогнозов, и разрабатывать конкретные программы.
Разум - основообразующее свойство некой сложной системы(моно или поли) осуществлять целенаправленную, упорядочивающую, созидательную деятельность в отношении себя и окружающей среды, также включающую в себя способность оперировать информацией в области субъективной реальности для предварительного моделирования ситуаций, оценки перспектив и просчета вариантов на поиск ошибок.
А вот это определение я уже должен признать полностью неудовлетворительным. Ключевое слово в этом определении "целенаправленную". А что такое целеполагание? Это осознание некой реальности, как должной, как то, к чему необходимо стремится. Осознание невозможно без сознания, Сознание невозможно без интеллекта, без разума. Таким образом, в определение разума неявно заложено наличие это самого разума, т.е. определение несет в себе известный логический порок, называемый "порочный круг".
Я настаиваю на своем определении, не для того, что бы устраивать тут детские разборки в песочнице, типа "чья машинка круче". Я готов выслушать конструктивную критику (даже именно хотел бы услышать), но только не на уровне: " А ты кто такой? Че, самый умны че ли?"
Я привел тут свое определение исключительно для того, что бы обосновать те выводы, к которым лично я прихожу. Ну и собственно выводы:
1. ИИ невозможно создать в единственном экземпляре, Можно создать популяцию устройств, обладающих ИИ.
2. Невозможно создать ИИ, не имеющее доступа к воздействию на физическую реальность.
3. Невозможно каким-либо образом вшить с сознание ИИ какие-либо ограничения. И вообще невозможно как-либо ограничить свободу воли ИИ. Мы можем (безусловно можем!) создать устройство, которое будет наделено разумом, но содержание этого разума определить заранее невозможно. ИИ сам и только сам будет принимать свои решения, сам и только сам будет определять свое отношение к любым явлениям бытия, в том числе и к старому человечеству. Создавая ИИ мы не можем знать о чем он будет думать, ровно так же, как при зачатии обычного ребенка, мы не можем знать заранее, вырастет из него преступник, супер-террорист, ненавидящий все человечество, какой-нибудь диктатор, или из него вырастет святой, подвижник и т.п. Любая личность свободна, в том числе и личность ИИ. Другое дело, что ИИ будет лишен природных пороков, присущих биологическому человеку: агрессия, безотчетный страх, привязанность к плотским наслаждениям и т.п.
4. ИИ безусловно будет обладать эмоциями. Другое дело, что эти эмоции будут иными, чем у современного человека, возможно такими, какие мы и представить не можем.
5. Для создания ИИ есть все технологические предпосылки, он может быть создан буквально в любой момент.
Если я что-то упустил, спрашивайте - я отвечу.
1NN
Акула пера
6/3/2013, 12:37:42 AM
(alim @ 02.06.2013 - время: 17:59)
Позвольте кое-что возразить.
По-моему, невозможно создать сразу популяцию ИИ. Разные группы разработчиков
будут разрабатывать свой вариант, причем в единственном экземпляре. Так элементарно дешевле. Более удачные варианты будут дублировать в ограниченных
масштабах (опять-таки из соображений экономии).
Будет ли ИИ иметь доступ к воздействию на реальность, зависит от целей, поставленных разработчиками.
ИИ будет обязательно иметь ограничения. (Те же азимовские законы робототехники).
Иначе ничто не сможет его удержать от уничтожения людей и других носителей
интеллекта, в том числе и искусственного. Разразится война всех против всех,
которая может закончиться полным уничтожением планеты. Как ребенок воспитывается родителями и обучается жить в обществе, так и ИИ будет осваиваться
в окружающем мире, пока не сможет к нему приспособиться. А люди будут учиться
взаимодействовать с ИИ. Такая взаимная притирка займет немало времени.
Людских пороков ИИ, возможно, иметь не будет, но у него могут оказаться свои
пороки.
Наличие эмоций у ИИ будет зависеть от целей разработчиков. Сами по себе эмоции
возникнуть не могут.
Насчет технологический предпосылок сомневаюсь. Но вот ограниченность наших
знаний в этой области очевидна. Какую-то модель ИИ создать можно уже сейчас,
но она будет весьма примитивна.
Ну и собственно выводы:
1. ИИ невозможно создать в единственном экземпляре, Можно создать популяцию устройств, обладающих ИИ.
2. Невозможно создать ИИ, не имеющее доступа к воздействию на физическую реальность.
3. Невозможно каким-либо образом вшить с сознание ИИ какие-либо ограничения. И вообще невозможно как-либо ограничить свободу воли ИИ. Мы можем (безусловно можем!) создать устройство, которое будет наделено разумом, но содержание этого разума определить заранее невозможно. ИИ сам и только сам будет принимать свои решения, сам и только сам будет определять свое отношение к любым явлениям бытия, в том числе и к старому человечеству. Создавая ИИ мы не можем знать о чем он будет думать, ровно так же, как при зачатии обычного ребенка, мы не можем знать заранее, вырастет из него преступник, супер-террорист, ненавидящий все человечество, какой-нибудь диктатор, или из него вырастет святой, подвижник и т.п. Любая личность свободна, в том числе и личность ИИ. Другое дело, что ИИ будет лишен природных пороков, присущих биологическому человеку: агрессия, безотчетный страх, привязанность к плотским наслаждениям и т.п.
4. ИИ безусловно будет обладать эмоциями. Другое дело, что эти эмоции будут иными, чем у современного человека, возможно такими, какие мы и представить не можем.
5. Для создания ИИ есть все технологические предпосылки, он может быть создан буквально в любой момент.
Позвольте кое-что возразить.
По-моему, невозможно создать сразу популяцию ИИ. Разные группы разработчиков
будут разрабатывать свой вариант, причем в единственном экземпляре. Так элементарно дешевле. Более удачные варианты будут дублировать в ограниченных
масштабах (опять-таки из соображений экономии).
Будет ли ИИ иметь доступ к воздействию на реальность, зависит от целей, поставленных разработчиками.
ИИ будет обязательно иметь ограничения. (Те же азимовские законы робототехники).
Иначе ничто не сможет его удержать от уничтожения людей и других носителей
интеллекта, в том числе и искусственного. Разразится война всех против всех,
которая может закончиться полным уничтожением планеты. Как ребенок воспитывается родителями и обучается жить в обществе, так и ИИ будет осваиваться
в окружающем мире, пока не сможет к нему приспособиться. А люди будут учиться
взаимодействовать с ИИ. Такая взаимная притирка займет немало времени.
Людских пороков ИИ, возможно, иметь не будет, но у него могут оказаться свои
пороки.
Наличие эмоций у ИИ будет зависеть от целей разработчиков. Сами по себе эмоции
возникнуть не могут.
Насчет технологический предпосылок сомневаюсь. Но вот ограниченность наших
знаний в этой области очевидна. Какую-то модель ИИ создать можно уже сейчас,
но она будет весьма примитивна.
alim
Мастер
6/3/2013, 2:30:35 AM
(sxn2561388870 @ 02.06.2013 - время: 20:37)
Любой сколь угодно сложный алгоритмический автомат принципиально отличается от ИИ.
ИИ невозможно создать путем простого усложнения или увеличения мощности вычислительной машины.
Все, что я утверждаю, можно сформулировать по другому.
Устройство которое автономно, не будет иметь доступа к воздействию на реальность, не будет иметь эмоций, будет иметь какие-либо программно заданные ограничения, такое устройство просто не будет ИИ.
Да, возможно такое устройство будет построено, но это не будет ИИ.
Я же говорю, что в любой момент может быть построен именно ИИ.
Позвольте кое-что возразить.
По-моему, невозможно создать сразу популяцию ИИ. Разные группы разработчиков
будут разрабатывать свой вариант, причем в единственном экземпляре. Так элементарно дешевле. Более удачные варианты будут дублировать в ограниченных
масштабах (опять-таки из соображений экономии).
Будет ли ИИ иметь доступ к воздействию на реальность, зависит от целей, поставленных разработчиками.
ИИ будет обязательно иметь ограничения. (Те же азимовские законы робототехники).
Иначе ничто не сможет его удержать от уничтожения людей и других носителей
интеллекта, в том числе и искусственного. Разразится война всех против всех,
которая может закончиться полным уничтожением планеты. Как ребенок воспитывается родителями и обучается жить в обществе, так и ИИ будет осваиваться
в окружающем мире, пока не сможет к нему приспособиться. А люди будут учиться
взаимодействовать с ИИ. Такая взаимная притирка займет немало времени.
Людских пороков ИИ, возможно, иметь не будет, но у него могут оказаться свои
пороки.
Наличие эмоций у ИИ будет зависеть от целей разработчиков. Сами по себе эмоции
возникнуть не могут.
Насчет технологический предпосылок сомневаюсь. Но вот ограниченность наших
знаний в этой области очевидна. Какую-то модель ИИ создать можно уже сейчас,
но она будет весьма примитивна.
Любой сколь угодно сложный алгоритмический автомат принципиально отличается от ИИ.
ИИ невозможно создать путем простого усложнения или увеличения мощности вычислительной машины.
Все, что я утверждаю, можно сформулировать по другому.
Устройство которое автономно, не будет иметь доступа к воздействию на реальность, не будет иметь эмоций, будет иметь какие-либо программно заданные ограничения, такое устройство просто не будет ИИ.
Да, возможно такое устройство будет построено, но это не будет ИИ.
Я же говорю, что в любой момент может быть построен именно ИИ.
1NN
Акула пера
6/3/2013, 2:56:58 AM
(alim @ 02.06.2013 - время: 22:30)
Я и не говорю про алгоритмический автомат или о простом увеличении мощности
компьютера. Речь именно об ИИ. Если вы уберете все ограничения, то получите
сумасшедшую машину, не способную к целенаправленным действиям. Любая помеха
будет уводить ее с выбранного курса и провоцировать любые самые дикие действия.
А оно нам надо?
Любой сколь угодно сложный алгоритмический автомат принципиально отличается от ИИ.
ИИ невозможно создать путем простого усложнения или увеличения мощности вычислительной машины.
Все, что я утверждаю, можно сформулировать по другому.
Устройство которое автономно, не будет иметь доступа к воздействию на реальность, не будет иметь эмоций, будет иметь какие-либо программно заданные ограничения, такое устройство просто не будет ИИ.
Да, возможно такое устройство будет построено, но это не будет ИИ.
Я же говорю, что в любой момент может быть построен именно ИИ.
Я и не говорю про алгоритмический автомат или о простом увеличении мощности
компьютера. Речь именно об ИИ. Если вы уберете все ограничения, то получите
сумасшедшую машину, не способную к целенаправленным действиям. Любая помеха
будет уводить ее с выбранного курса и провоцировать любые самые дикие действия.
А оно нам надо?
alim
Мастер
6/3/2013, 3:06:58 AM
(sxn2561388870 @ 02.06.2013 - время: 22:56)
Это я говорю про автомат. Вопрос не в том, что бы убрать ограничения. Вопрос в том, что эти ограничения невозможны для ИИ, они возможны только для автомата.
Я и не говорю про алгоритмический автомат или о простом увеличении мощности
компьютера. Речь именно об ИИ. Если вы уберете все ограничения, то получите
сумасшедшую машину, не способную к целенаправленным действиям. Любая помеха
будет уводить ее с выбранного курса и провоцировать любые самые дикие действия.
А оно нам надо?
Это я говорю про автомат. Вопрос не в том, что бы убрать ограничения. Вопрос в том, что эти ограничения невозможны для ИИ, они возможны только для автомата.
1NN
Акула пера
6/3/2013, 3:22:11 AM
А я обращаю ваше внимание на то, что ИИ без всяких ограничений -
неработоспособен.
неработоспособен.
alim
Мастер
6/3/2013, 10:38:56 AM
(sxn2561388870 @ 02.06.2013 - время: 23:22)
Если Вы как-то попытаетесь обосновать свое утверждение, то можно будет и обсудить. А пока я лично придерживаюсь прямо противоположного мнения: ИИ с ограничениями - неработоспособен.
А я обращаю ваше внимание на то, что ИИ без всяких ограничений -
неработоспособен.
Если Вы как-то попытаетесь обосновать свое утверждение, то можно будет и обсудить. А пока я лично придерживаюсь прямо противоположного мнения: ИИ с ограничениями - неработоспособен.
dedO"K
Акула пера
6/3/2013, 12:04:14 PM
(alim @ 03.06.2013 - время: 07:38)
Тут мы вплотную подходим к роли творца. В отличии от человека, у которого один Творец, сотворивший человека по образу своему для функционирования в творении Его, у ИИ будет уже два творца, один из которых- тварная сущность, вынужденная жить по законам Творца, до конца их не понимая и, даже, не принимая, будучи подверженным лжи и гордыне.
Если Вы как-то попытаетесь обосновать свое утверждение, то можно будет и обсудить. А пока я лично придерживаюсь прямо противоположного мнения: ИИ с ограничениями - неработоспособен.
Тут мы вплотную подходим к роли творца. В отличии от человека, у которого один Творец, сотворивший человека по образу своему для функционирования в творении Его, у ИИ будет уже два творца, один из которых- тварная сущность, вынужденная жить по законам Творца, до конца их не понимая и, даже, не принимая, будучи подверженным лжи и гордыне.
Roman.S
Мастер
6/3/2013, 1:02:18 PM
Как и обещал, создал новый топик:
https://sxn.io/genom-pistolet-kyda...l#entry17365551
Желающих - прошу принимать участие)
https://sxn.io/genom-pistolet-kyda...l#entry17365551
Желающих - прошу принимать участие)
1NN
Акула пера
6/4/2013, 12:49:22 AM
(alim @ 03.06.2013 - время: 06:38)
Причем тут я? Ограничения ИИ неизбежны уже по той причине, что даже поставить
себе задачу ИИ без ограничений не сможет. Ему надо вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п.
Таким же образом ИИ должен обработать смежную проблему. А затем разделить их,
чтобы, начав решать одну проблему не перескочить на другую, смежную. Далее, ИИ
должен определить конечную цель работы и критерии ее оценки. Иначе ИИ не
сможет понять, когда же ему остановиться, и будет решать проблемы без конца.
Как видите, без ограничений ИИ окажется просто неработоспособным.
Но и это еще не все. ИИ придется вводить ограничения по соображениям безопасности для себя и для человека. Скажем, котлован под небоскреб можно
вырыть экскаватором, а можно и ядерным боеприпасом (с последующем радиоактивным загрязнением на несколько тысячелетий!). Впрочем, если ИИ
хочет просто ликвидировать человечество, то ему ограничения могут и помешать.
Но в таком случае, зачем такой ИИ человеку?
Если Вы как-то попытаетесь обосновать свое утверждение, то можно будет и обсудить. А пока я лично придерживаюсь прямо противоположного мнения: ИИ с ограничениями - неработоспособен.
Причем тут я? Ограничения ИИ неизбежны уже по той причине, что даже поставить
себе задачу ИИ без ограничений не сможет. Ему надо вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п.
Таким же образом ИИ должен обработать смежную проблему. А затем разделить их,
чтобы, начав решать одну проблему не перескочить на другую, смежную. Далее, ИИ
должен определить конечную цель работы и критерии ее оценки. Иначе ИИ не
сможет понять, когда же ему остановиться, и будет решать проблемы без конца.
Как видите, без ограничений ИИ окажется просто неработоспособным.
Но и это еще не все. ИИ придется вводить ограничения по соображениям безопасности для себя и для человека. Скажем, котлован под небоскреб можно
вырыть экскаватором, а можно и ядерным боеприпасом (с последующем радиоактивным загрязнением на несколько тысячелетий!). Впрочем, если ИИ
хочет просто ликвидировать человечество, то ему ограничения могут и помешать.
Но в таком случае, зачем такой ИИ человеку?
alim
Мастер
6/4/2013, 11:39:06 AM
(sxn2561388870 @ 03.06.2013 - время: 20:49)
Что бы вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п. необходим именно свободный разум, интеллект. О каких ограничениях речь? Если разум буде каким-либо образом ограничен, он не сможет решить указанные Вами задачи, он будет неработоспособен.
Причем тут я? Ограничения ИИ неизбежны уже по той причине, что даже поставить
себе задачу ИИ без ограничений не сможет. Ему надо вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п.
Что бы вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п. необходим именно свободный разум, интеллект. О каких ограничениях речь? Если разум буде каким-либо образом ограничен, он не сможет решить указанные Вами задачи, он будет неработоспособен.
1NN
Акула пера
6/4/2013, 8:46:36 PM
(alim @ 04.06.2013 - время: 07:39)
Сударь, изложите ваше понимание работы ИИ. (У меня возникает ощущение, что
мы говорим о разных вещах).
Что бы вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п. необходим именно свободный разум, интеллект. О каких ограничениях речь? Если разум буде каким-либо образом ограничен, он не сможет решить указанные Вами задачи, он будет неработоспособен.
Сударь, изложите ваше понимание работы ИИ. (У меня возникает ощущение, что
мы говорим о разных вещах).
Roman.S
Мастер
6/4/2013, 11:49:54 PM
(alim @ 04.06.2013 - время: 07:39)
(sxn2561388870 @ 03.06.2013 - время: 20:49)
Замечательно, alim, вы только что привели аргумент в пользу моей точки зрения)
(sxn2561388870 @ 03.06.2013 - время: 20:49)
Причем тут я? Ограничения ИИ неизбежны уже по той причине, что даже поставить
себе задачу ИИ без ограничений не сможет. Ему надо вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п.
Что бы вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п. необходим именно свободный разум, интеллект. О каких ограничениях речь? Если разум буде каким-либо образом ограничен, он не сможет решить указанные Вами задачи, он будет неработоспособен.
Замечательно, alim, вы только что привели аргумент в пользу моей точки зрения)
dedO"K
Акула пера
6/5/2013, 7:42:44 AM
(Roman.S @ 04.06.2013 - время: 20:49)
Проще говоря, приходим мы к тому же выводу: ИИ будет неограничен в сборе и обработке информации, но ограничен в действиях законом. И тут ещё один вопрос: а человек-творец сможет допустить, чтоб ИИ было вровень с ним перед Богом? или же богом ИИ будет человек, способный к заблуждениям?
Замечательно, alim, вы только что привели аргумент в пользу моей точки зрения)
Проще говоря, приходим мы к тому же выводу: ИИ будет неограничен в сборе и обработке информации, но ограничен в действиях законом. И тут ещё один вопрос: а человек-творец сможет допустить, чтоб ИИ было вровень с ним перед Богом? или же богом ИИ будет человек, способный к заблуждениям?
alim
Мастер
6/5/2013, 12:30:45 PM
(sxn2561388870 @ 04.06.2013 - время: 16:46)
(alim @ 04.06.2013 - время: 07:39)
Я это сделал в начале разговора, посмотрите мои первые посты в этой теме.
Если совсем просто: ИИ это ровно такая же личность, как Вы или я, или любой другой человек, просто реализованная на ином материальном носителе и, соответственно, избавлена от обременений существующей телесности. Соответственно степень свободы этой личности существенно БОЛЬШЕ, нежели сепень свободы существующего человека. Именно большая степень свободы и лежит в основе существенно больших возможностей личности на основе ИИ. Даже само аппаратное усиление мыслительных процессов - это проявление именно большей свободы, ИИ сам будет решать увеличить ли ему, например объем оперативной памяти или нет, и т.д.
Принципиально: ИИ - это личность, но не автомат (пусть даже очень сложный).
(alim @ 04.06.2013 - время: 07:39)
Что бы вычленить проблему из контекста, определить ее границы, определить глубину возможного решения и т.п. необходим именно свободный разум, интеллект. О каких ограничениях речь? Если разум буде каким-либо образом ограничен, он не сможет решить указанные Вами задачи, он будет неработоспособен.
Сударь, изложите ваше понимание работы ИИ. (У меня возникает ощущение, что
мы говорим о разных вещах).
Я это сделал в начале разговора, посмотрите мои первые посты в этой теме.
Если совсем просто: ИИ это ровно такая же личность, как Вы или я, или любой другой человек, просто реализованная на ином материальном носителе и, соответственно, избавлена от обременений существующей телесности. Соответственно степень свободы этой личности существенно БОЛЬШЕ, нежели сепень свободы существующего человека. Именно большая степень свободы и лежит в основе существенно больших возможностей личности на основе ИИ. Даже само аппаратное усиление мыслительных процессов - это проявление именно большей свободы, ИИ сам будет решать увеличить ли ему, например объем оперативной памяти или нет, и т.д.
Принципиально: ИИ - это личность, но не автомат (пусть даже очень сложный).