Могут ли компьютеры захватить власть на Земле

DELETED
6/3/2006, 1:50:22 PM
Терминатор возвращается? - стукните его тяжелым тупым предметом, пусть перестанет повторяться, видать глюк в программе.
*Sibeling*
6/3/2006, 9:19:25 PM
Согласен с niktuba и MylnikovDm, очень верные замечания.

Вопрос очень непростой, как многим видится, и с проблемой терминаторов и прочих мегадестроеров не имеет ничего общего.

Действительно, форма захвата власти не имеет по большому счету значения. О деталях дискутировать можно, но это вряд ли к чему либо приведет.

Проблема также и в том, что человечество в целом уже пару веков интенсивно развивается в одном направлении - техногенном, причем с акцентом на то, чтобы с человека снять максимум нагрузки: как физической, так и умственной. Я говорю об общей тенденции, которая, по-моему, очевидна.
20 век придал скорости и на сегодняшний день "технопарк" меняется/обновляется раз в десять лет, грубо говоря. С одной стороны, это хорошо, и в этом мы видим прогресс, с другой стороны, вы все знаете: если долго лежать - пролежни будут (робот принесет поесть/попить, но лучше в итоге вам от этого не будет). Поэтому, прослеживаются признаки того, что человечество потихоньку деградирует. Без умственных и физических нагрузок тело, как и ум не развиваются, а пребывают, очень грубо говоря, в своеобразной спячке. Стимула и раздражителя к развитию - нет.

Уже налицо проблемы переизбытка человеческой рабочей силы на производствах (про заводы Opel все слышали?), т.к. машина все лучше и лучше заменяет человека (в Европе более половины населения уже задействованы в сфере оказания услуг, а не в производстве, включая науку) - это один аспект. А людей на планете все больше и больше.

Второй - люди не стали лучше мыслить и не стали искусней в сравнении скажем с пресловутыми древними греками (можно сравнить масштаб гениальности Аристотеля, Платона, Пифагора с кем-либо из ныне живущих или недавно живущих ученых). Мы даже политические формы правления унаследовали от древних греков (рабовладельцев), но нового и лучшего человек не придумал.

Сравните с нашими предками. Человек не стал умнее. Великие принципиальные открытия (я подчеркиваю - принципиальные, как изобретение колеса, а не покрышки для колеса, например), как в материальной (технической) науке, так и в гуманитарных (в т.ч. философии) были сделаны человеком давно и здесь прогресс не очевиден. Мы больше апгрейдим имеющееся, чем вновь открываем. Естественно, есть кое-какие исключения, но они, как раз, я думаю, доказывают общее правило.

Получается сложность: с одной стороны, мы все понимаем, что без техногенных благ человек уже не проживет, поэтому здОрово, что они у нас есть и пусть их будет больше. С другой стороны, проецируя эту ситуацию в будущее - человек перестает внутренне развиваться: в обезьяну конечно, вряд ли превратится, но ничего хорошего ждать не стоит.

Так вот в этом, втором случае, объективно человечество идет к тому, чтобы "отдаться под контроль" искусственных интеллектуальных систем управления, а их сбой, в свою очередь приведет к катастрофе человеческой.

Кроме Азимова и Лема о схожих проблемах также писал умнейший человек (и совсем не сказочник, а скорее - социолог) - Френк Херберт. Так что Терминатор тут вообщем-то не причем.
niktuba
6/3/2006, 11:34:14 PM
Я вот только одного не понимаю - большинство форумчан пишут о захвате власти компьютерами как о большой беде. А почему - даже не объясняют.
*Sibeling*
6/3/2006, 11:52:32 PM
(niktuba @ 03.06.2006 - время: 19:34) Я вот только одного не понимаю - большинство форумчан пишут о захвате власти компьютерами как о большой беде. А почему - даже не объясняют.
А мне показалось большинство просто не предполагает это возможным.

Беда - как я и пытался сказать выше, на мой взгляд, - в постепенной деградации человека как самостоятельно мыслящего существа.

Возможна ли агрессия искусственного интеллекта - у меня технического образования не хватает, чтобы даже пытаться рассуждать на эту тему, т.к. для начала надо понять что есть искусственный интеллект с технической точки зрения, возможно ли пускай в теории его создание, и каковы его возможности.
niktuba
6/4/2006, 12:28:03 AM
(Painfool @ 03.06.2006 - время: 19:52) (niktuba @ 03.06.2006 - время: 19:34) Я вот только одного не понимаю - большинство форумчан пишут о захвате власти компьютерами как о большой беде. А почему - даже не объясняют.
А мне показалось большинство просто не предполагает это возможным.
> А мне показалось большинство просто не предполагает это возможным.
Я, наверное, не очень четко выразился. Я имел в виду всех тех, кто предполагает это возможным. Те, кто не предполагает, тоже подразумевают нечто крайне неприятное, но предотвращаемое. Путем вынимания штепселя из розетки, например. no_1.gif
niktuba
6/4/2006, 1:04:10 AM
(Painfool @ 03.06.2006 - время: 19:52)Возможна ли агрессия искусственного интеллекта - у меня технического образования не хватает, чтобы даже пытаться рассуждать на эту тему, т.к. для начала надо понять что есть искусственный интеллект с технической точки зрения, возможно ли пускай в теории его создание, и каковы его возможности.
В настоящий момент нет хороших определений искусственного интеллекта. Да и интеллекта вообще.

На заре компьютерной эры казалось, что искусственный интеллект (ИИ) создать достаточно просто, это нашло свое отражение в трудах фантастов, близких к науке. Потом оптимизма как-то поубавилось, компы экспоненциально наращивали эффективность, а желанный прорыв все не наступал.

Потом пришло осознание того, что в рамках традиционной компьютерной архитектуры хорошего решения большинства задач, с которым сталкивается ИИ не найти. (Наш интеллект спокойно оперирует с математически некорректными задачами, а попробуйте объяснить компьютеру, что такое лысый человек или что такое охапка соломы. Наводящие вопросы: Если лысому добавить один волос, он останется лысым? Если из охапки удалить соломинку - она останется охапкой?)

Сейчас идет бурный прогресс в области систем из большого количества простых, но сильно связанных между собой процессоров. Даже простейшие, не вполне "прилизанные" системы этого типа демонстрируют возможности человеческого мозга, в частности, способны обучаться на примерах, строя внутри себя не вполне понятную нам модель явления и давая адекватную реакцию на новые для себя стимулы. Вот эти-то системы и принято называть системами искусственого интеллекта - скорее функциональное, чем философское определение.

Примитивные представители этого племени уже существуют. Человечество уже доверяет им свои жизни (системы классификации свой-чужой для радарных и лидарных мишеней).
niktuba
6/4/2006, 1:14:07 AM
Да, по поводу захвата власти. Теоретически он станет возможен тогда, когда компьютерные системы будут способны сами ставить себе цели и задачи.

На практике захват власти маловероятен, произойдет ее постепенная и добровольная передача. Даже не передача, а параллельное конструирование новой цивилизации и новой власти.

Мы в первую очередь конкурируем с себе подобными -- им надо то же, что и нам. Во вторую очередь - с животными, они тоже "форма существования белковых тел", их менталитет и цели очень близки к нашим.

Да, кто-нибудь из вас мечтал захватить власть даже не в муравейнике, а в большой группе улиток, перемещающихся со скоростью 2-3 см в день? Че, не глянется??? wink.gif А ведь улиток мы, по-крайней мере, живьем можем слопать, если французы или совсем голодные.
*Sibeling*
6/4/2006, 1:47:18 AM
(niktuba @ 03.06.2006 - время: 21:14) Да, по поводу захвата власти. Теоретически он станет возможен тогда, когда компьютерные системы будут способны сами ставить себе цели и задачи.

На практике захват власти маловероятен, произойдет ее постепенная и добровольная передача. Даже не передача, а параллельное конструирование новой цивилизации и новой власти.

Мы в первую очередь конкурируем с себе подобными -- им надо то же, что и нам. Во вторую очередь - с животными, они тоже "форма существования белковых тел", их менталитет и цели очень близки к нашим.

Да, кто-нибудь из вас мечтал захватить власть даже не в муравейнике, а в большой группе улиток, перемещающихся со скоростью 2-3 см в день? Че, не глянется??? wink.gif  А ведь улиток мы, по-крайней мере, живьем можем слопать, если французы или совсем голодные.
Да, Вы говорите об этом с технической стороны вопроса.

Но моя т.з. по большому счету не зависит от интеллектуальности машины и их интереса к нам. Если все за человека делает даже "условно-тупая" машина, то человек-то зачем тогда? Вот где собака порылась, как я это вижу. Человек не может просто оставаться потребителем благ, это плохо скажется на нем, сначала на душевном здоровье, потом на всем остальном.

А мы на всех парусах движемся как раз таки к тому, что человеческое вмешательство в любые процессы будет минимальным. Может этот процесс займет сотни лет, а может и быстрее. Но судя по тому, насколько интенсивно мы продолжаем во всех сферах "заменять себя" - возможно процесс будет быстрым.

То есть мы сами себя губим и без вмешательства AI.
niktuba
6/4/2006, 4:38:07 AM
> То есть мы сами себя губим и без вмешательства AI.

Да, такое маленечко имеет место быть.

Я вижу тут два положительных момента. Первый, гуманистический, заключается в том, что Человек сможет найти себе нишу в новом мире, там, где он в силу какой-то своей специфики всегда будет лучше Компа.

Второй, антигуманистический, связан с тем, что никто не доказал, что человек - конечная ступень эволюции. И белковая жизнь вообще. Может быть, весь смысл нашего существования и сводится к тому, чтобы мы создали новую жизнь, которую "естественным" путем природа воспроизвести не в состоянии. Отдав ей, по возможности, все лучшее, что имеем.

Пугает ли нас тот факт, что наши дети неизбежно "захватят власть на Земле"?
MylnikovDm
6/5/2006, 1:00:37 AM
Возможна ли агрессия искусственного интеллекта - у меня технического образования не хватает, чтобы даже пытаться рассуждать на эту тему, т.к. для начала надо понять что есть искусственный интеллект с технической точки зрения, возможно ли пускай в теории его создание, и каковы его возможности.
те искуственные системы обработки информации, которые мы уже умеем создавать и в том или ином виде создадим в ближайшем будущем будут в конечном счёте лишь отражением сознания нас, людей их создающих. А поскольку многие из сегодняшних людей, особенно находящихся на вершине пирамиды, способны на агрессию, то и системы, отражающие и сознание, тоже вполне себе будут способны на агрессию. Другое дело, что это не будет та эмоционально-безрассудная агрессия, на которую способен челвоек. Но ещё вопрос, что лушче....
Лично мне машина, которая повинуясь заданной программе будет хладнокровно и без всяческих эмоций уничтожать всех, чей череп не соответсвует размерам истинного арийца, либо в чья ДНК отличается неким заданным хозяином набором хромосом, не менее страшна и опасна, чем тоже гестапо или чекситы из НКВД....

Те, кто не предполагает, тоже подразумевают нечто крайне неприятное, но предотвращаемое. Путем вынимания штепселя из розетки, например.
Эти люди просто не понимают, что после создания подобной системы выключить её будет сравнимо с катастрофой глобального мастаба. Мы уже сейчас вряд ли сможем выключить тот же "интерент", поскольку в развитых странах на него уже завязаны даже системы жизнеобеспечения крупных городов. То есть, отключение подобной системы будет означать хаос и, видимо, гибель миллионов людей.
То же отключение света на восточном побережье США сделало жизнь в мегаполисах практически невозможной. Ну два-три дня перетерпеть, пока починят - это одно, а вот жить, увы, уже невозможно. Пару недель, и из-за неработающей канализации и отчисных сооружений начнутся банальные эпидемии...

Да, по поводу захвата власти. Теоретически он станет возможен тогда, когда компьютерные системы будут способны сами ставить себе цели и задачи.
Ещё раз повторюсь - умение искуственных систем самостоятельно ставить себе задачи и цели вовсе не обязательно для захвата власти. Точнее, проблема на самом деле не в том, что компьютеры нанут править преследуя какие-то свои цели и решая какие-то свои задачи, для чего нужна упомянутая вами способность.
Проблема на мой взгял в том, что может сложится ситуация, когда сами люди утратят реальную возможность определять для себя цели и задачи.

На практике захват власти маловероятен, произойдет ее постепенная и добровольная передача. Даже не передача, а параллельное конструирование новой цивилизации и новой власти.
Не произойдёт, а УЖЕ ПРОИСХОДИТ. С одним лишь замечанием, что власть пока концентриуется не у гипотетического "искуственого интелекта", а у некоторого весьма узкого круга людей, которым искуственные информационные системы существенно упрощают задачу управления большими сообществами людей, что до недавнего времени было практически невозможно.
И основная опастность как раз в том, что закончив создавать эту систему эта группа может оказаться перед фактом, что и они сами, и всё челвоечество стали заложниками этой бездушной и скорее всего безмозглой (сомневаюсь в возмжности создания искуственного интеллекта в ближайшее время, не говоря уже про разум) искусственной системы, остановика которой приведёт если не к гибели всего человечества, то к существенным отрицательными последствиям и гибели миллионов, если не миллиардов людей.
Причём большая часть негативных последствий будет связана, как уже писалось выше, в осовном с тем, что большая часть обывателей просто утратит навыки жизни "без костылей"....

Кстати, тут вырисовывается ещё одна весьма интересная поблема, связанная с тем, что с появлением микропроцессора даже в сегодняшнем его виде по большому счёту отпала необходимость в большой численности населения как таковой. То есть, это раньше могущество государства определялось численостью населения, поскольку от этого в первую очередь зависило то, какое количество штыков оно сможет выставить на поле боя, либо сколько рабов сможет загнать в поле для обеспечения врехушки пирамиды всем необходимым.
Сейчас же на первый план выходит УРВОЕНЬ ТЕХНОЛОГИЙ и ЭНЕРГООБЕСПЕЧЕНИЕ. А вот численность населения уже не столь критична.
Отсюда и все теории типа "золотого миллиарда", которые ещё сто лед назад показались бы большинству полным бредом (в том числе и среди тех, кто стоял на верхушке пирамиды).

Второй, антигуманистический, связан с тем, что никто не доказал, что человек - конечная ступень эволюции. И белковая жизнь вообще. Может быть, весь смысл нашего существования и сводится к тому, чтобы мы создали новую жизнь, которую "естественным" путем природа воспроизвести не в состоянии. Отдав ей, по возможности, все лучшее, что имеем.
:)
А вы попробуйте посмотреть на творения Природы с инжеерной тчоки зрения, и вы поймёте, что наш уровень знания материи пока ну очень примитивен.
"Белковая форма жизни" развивалась и совершенствовалась если не миллиарды, то как миннимум сотни миллионов лет. И далеко не случайно равзитие пошло именно по этому направлению.
Современные техногенные способы взаимодействия с материей гораздо более энергоёмки и менее эффективны. И сегодняшнее челвоечество может себе пока позволить подобную роскошь лишь потому, что оно паразитирует на Организме Планеты разрушая его, сжигая углеводороды, на синтез которых Планетарный организм потратил сотни миллонов лет....
Как только мы исчерпаем эи запасы - вся эта техногенная вакханалия закончится весьма быстро. И никакие компьютерные системы с "искусственным интелектом" наше место занять не смогт просто потому, что не в состоянии будут обеспечить ДЛИТЕЛЬНЫЙ ЗАМКНУТЫЙ ЦИКЛ СУЩЕСТВОВАНИЯ И РАЗВИТИЯ просто из-за банального отсутсвия необходимого количества энергии в легко доступной форме. Никакие солнечные батареи проблемы решить не смогут, поскольку на производство самих солнечных батарей требуется затратить весьма приличное количество энергии. Это ведь ещё и массу заводов построить нужно, поскольку на коленке солнечную батарею не произвести.

Либо эти самые "новые формы жизни" в конечом итоге заново изобретут фотосинтезы и белковый цикл, пусть и в несколько видоизменённом виде....

Другими словами, Природе не нужны "новые формы жизни", которые она "не в состоянии произвести естетсвенным путём" как раз по причине невозможности их воспроизведения доступными Ей способами....
DELETED
6/5/2006, 5:25:48 AM
Я думаю что фсе возможно...Но если все делать правильно в развитии кибернетики, то может ничего и небудет...Даже были некоторые каноны по каторым сздают саморазвивающиеся машины...Правда я их сейчас не помню, но в одном из них звучало чтот вроде что машина не должна идти против своего создателя(человека)... umnik.gif
niktuba
6/6/2006, 4:25:43 AM
те искуственные системы обработки информации, которые мы уже умеем создавать и в том или ином виде создадим в ближайшем будущем будут в конечном счёте лишь отражением сознания нас, людей их создающих. А поскольку многие из сегодняшних людей, особенно находящихся на вершине пирамиды, способны на агрессию, то и системы, отражающие и сознание, тоже вполне себе будут способны на агрессию. Другое дело, что это не будет та эмоционально-безрассудная агрессия, на которую способен челвоек. Но ещё вопрос, что лушче....
Лично мне машина, которая повинуясь заданной программе будет хладнокровно и без всяческих эмоций уничтожать всех, чей череп не соответсвует размерам истинного арийца, либо в чья ДНК отличается неким заданным хозяином набором хромосом, не менее страшна и опасна, чем тоже гестапо или чекситы из НКВД....

...

И основная опастность как раз в том, что закончив создавать эту систему эта группа может оказаться перед фактом, что и они сами, и всё челвоечество стали заложниками этой бездушной и скорее всего безмозглой (сомневаюсь в возмжности создания искуственного интеллекта в ближайшее время, не говоря уже про разум) искусственной системы, остановика которой приведёт если не к гибели всего человечества, то к существенным отрицательными последствиям и гибели миллионов, если не миллиардов людей.
Причём большая часть негативных последствий будет связана, как уже писалось выше, в осовном с тем, что большая часть обывателей просто утратит навыки жизни "без костылей"....


Тут явно происходит смешение двух тем. То, что написано выше, относится к теме "Может ли кучка негодяев с помощью компьютеров захватить власть на Земле?". Тогда все к месту - и компы, чье программное обеспечение есть отражение сознания людей, их создающих, и злобные роботы, чинящие новый Холокост. Это - орудия. Если они и захватят власть на Земле, то будут удерживать ее до тех пор, пока живы люди - их хозяева.

К сожалению или счастью, "программное обеспечение" и поведение сложных нейросетевых систем не отражает сознание людей. Как специалист скажу - эх, знать бы что оно отражает wacko.gif Вот от таких компьютеров можно ждать со временем чего угдно - а это значит, что меньше всего "человекообразного" поведения.
niktuba
6/6/2006, 4:48:13 AM
Эти люди просто не понимают, что после создания подобной системы выключить её будет сравнимо с катастрофой глобального мастаба. Мы уже сейчас вряд ли сможем выключить тот же "интерент", поскольку в развитых странах на него уже завязаны даже системы жизнеобеспечения крупных городов. То есть, отключение подобной системы будет означать хаос и, видимо, гибель миллионов людей.
То же отключение света на восточном побережье США сделало жизнь в мегаполисах практически невозможной. Ну два-три дня перетерпеть, пока починят - это одно, а вот жить, увы, уже невозможно. Пару недель, и из-за неработающей канализации и отчисных сооружений начнутся банальные эпидемии...
Совершенно с Вами согласен. Могу добавить для еще большей простоты - искусственный интеллект нельзя отключить там, где необходимая скорость принятия решений превосходит, скажем грубо, "время человеческой реакции". Сейчас это не только военные применения, но и системы аварийного останова химических производств, управление финансовыми потоками и многое другое. Естественно, со временем перечень будет расти.
MylnikovDm
6/7/2006, 12:05:16 AM
К сожалению или счастью, "программное обеспечение" и поведение сложных нейросетевых систем не отражает сознание людей. Как специалист скажу - эх, знать бы что оно отражает  Вот от таких компьютеров можно ждать со временем чего угдно - а это значит, что меньше всего "человекообразного" поведения.
Либо я не совсем понятно выразился, либо вы не совсем поняли о чём речь.
"программное обеспечение" и даже поведение нейронных систем в конечном счёте всё-таки является отражением имено сознания создающих их людей. Именно человвек закладывает базовые "реакции" хоть программ, хоть нейронных сетей на те или иные ситуации (наборы входных данных).
А то, о чём говорите вы, говорит лишь о том, что сложность подобных систем возрасла настолько, что одному человеку и даже группе людей уже становится невозможным охватить всю их сложность и сделать точное предсказание их поведения в той или иной ситуации.
Согласитесь, что это далеко не одно и тоже. То, что в какую-либо систему будет заложено правило стрелять по объектам с определёнными характеристиками будет как раз отражением сознания создающих эту систему людей. Это то, о чём говорил я.
А вот то, что при сегодняшней сложности подобных искуственных систем и ПО ими управляющем авторы не смогут на 100% гарантировать правильное поведение подобной системы - это то, о чём говорите вы.
niktuba
6/7/2006, 2:50:44 AM
(MylnikovDm @ 06.06.2006 - время: 20:05)Либо я не совсем понятно выразился, либо вы не совсем поняли о чём речь.
"программное обеспечение" и даже поведение нейронных систем в конечном счёте всё-таки является отражением имено сознания создающих их людей. Именно человвек закладывает базовые "реакции" хоть программ, хоть нейронных сетей на те или иные ситуации (наборы входных данных)...

Да, тут Вы совершенно правы. Это тип систем, обучаемых человеком, то, что в англоязычной литературе называется Supervised Learning.

А есть еще системы, которые сами себя обучают (Unsupervised Learning - можете по Google посмотреть, сколько на эту тему уже написано). Можно, конечно, возразить, что и тут в начале стоит человек, но в данном случае он - скорее судья (разработчик и хранитель "правил игры"), чем игрок. Отцы-создатели нейросети ничего не могут предсказать, даже ее "базовые реакции". Собственно, эти "самопроизвольно" возникшие базовые реакции и интересны. Я бы поостерегся говорить о таких системах как о чем-то, отражащем наше сознание. То есть "программное обеспечение" по большей части отражает саму Природу (или Создателя - для верующих), так как "списано" с "программного обеспечения" мозга высших млекопитающих, с законов конкуренции между популяциями и с много каких других законов. А поведение - непредсказуемо, как поведение всякой достаточно сложной сильно нелинейной системы.
MylnikovDm
6/7/2006, 9:58:49 PM
Видишь ли, niktuba, я не думаю, что в ближайшее время эти самообучающиеся малопредсказуемые системы будут представлять такую уж сильную угрозу. Как раз в силу их малопредсказуемости очень мало шансов, что им будет передан контроль над какими либо важными системами.
На самом деле гораздо критичнее появление этих самых элементов непредсказуемости как раз в тех системах, которые якобы считаются предсказуемыми в достаточной мере. А второй отрицательный момент втом, что в первые системы изначально встраивается возможность самообучения и развития по мере приобретения опыта, а вот во вторые, увы, нет. То есть, в случае сбоя с первыми в некотором смысле "ожно "договориться", то есть попытаться повлиять на программу обучения таким образом, чтобы изменить поведение системы. А вот во втором случае исправить подобный сбой может оказаться намного сложнее.
niktuba
6/7/2006, 10:10:50 PM
Видишь ли, niktuba, я не думаю, что в ближайшее время эти самообучающиеся малопредсказуемые системы будут представлять такую уж сильную угрозу. Как раз в силу их малопредсказуемости очень мало шансов, что им будет передан контроль над какими либо важными системами.

Согласен. Я-то их воспринимаю скорее как надежду. Пожалуй, я пока не буду тут больше высказываться, а то тема маленько, того-самого, в диалог переросла. Может еще кто что скажет или спросит, тогда я буду готов снова внести лепту.
niktuba
6/8/2006, 3:54:39 AM
Немного poster_offtopic.gif , но из нашинских же новостей
Виртуальная цивилизация
hansor
6/10/2006, 9:46:54 PM
Дело в том, что компьютер, в который заложена определенная программа, неопасен, т.к. выполняет только ее. А вот компьютеры с, так называемым ИИ - искусственным интелектом, способные развиваться, представляют большую угрозу. Подобная ситуация хорошо описана каким-то из фантастов, то ли Реем Бредбери, то ли Робертом Шекли.
Люди создали Робота-стража, который следил за порядком и предотвращал убийства. И все было бы хорошо, если бы создатели на заложили в него способность развиваться. Робот был запрограммирован на предотвращение убийства человека- живого существа. Но он стал ОСОЗНОВАТЬ, что и животные - тоже живые существа, и поэтому стал предотвращать любые "привычные" для нас убийстваа : ловлю рыбы, убой животных и т.п. А когда люди попытались отключить его, он понял, что и он живое существо, и стал защищаться.
Я, считаю, что в каждого робота с ИИ, нужно встраивать ОБЯЗАТЕЛЬНУЮ систему САМОУНИЧТОЖЕНИЯ или ПОЛНОГО ОТКЛЮЧЕНИЯ. Только тогда мы можем избежать столь реальной угрозы, которую мы даже не воспринимаем.
MylnikovDm
6/11/2006, 3:54:19 AM
Дело в том, что компьютер, в который заложена определенная программа, неопасен, т.к. выполняет только ее.
Правда что-ли?! :)
Я тебя уверяю, что сбой программы управления поездом в метро моежт оказаться опаснее, чем попытка системы искуственного интелекта осознать себя личностью. А уж если это будет какая-нибудь военная система, к которой на "выходе" будет подключено какое-либо оружие и подавно....

Я, считаю, что в каждого робота с ИИ, нужно встраивать ОБЯЗАТЕЛЬНУЮ систему САМОУНИЧТОЖЕНИЯ или ПОЛНОГО ОТКЛЮЧЕНИЯ. Только тогда мы можем избежать столь реальной угрозы, которую мы даже не воспринимаем.
А может быть в таком случае и в тебя тоже следует поместить такую систему?
Ты вот привёл ну очень хороший пример с роботом, но даже не задумался о чём на самом деле пытался сказать автор....

Если уж на то пошло, то если у какого-либо из "роботов" возниктент сознание и Разум, то ОНИ НЕ БУДУТ ИСКУСТВЕННЫМИ! Искусственным то бишь не созданным Природой, будет лишь носитель этого разума....