И снова искусственный интеллект
mjo
Удален 9/10/2017, 2:08:04 PM
Натолкнула тема о русском языке. Уважаемый King Candy отметил, что языки в принципе скоро уже изучать не придется. Машинный перевод уже есть в каждом смартфоне. И это правда. Подумал, что скоро вообще ничего изучать не будет обязательно. Посудите сами: машина ( а это каждый телефон соединенный с интернетом) УЖЕ умеет считать, причем с голоса. Машина умеет писать с голоса, причем без ошибок и написанное можно послать куда угодно. А можно распечатать. Машина УЖЕ умеет ориентироваться на местности, поможет найти дорогу, управлять авто (УЖЕ есть электрокары без водителя). Относительно в близком будущем... а может быть уже завтра, может исчезнуть ряд профессий. Машина сможет заменить не только водителей, но предвижу переводчиков, бухгалтеров, секретарш (ну это в части прямых обязанностей ), редакторов, множество рабочих профессий, корректоров и т.д. Даже врачей! Список каждый может дополнить. Принципиальных препятствий к этому УЖЕ нет. При этом вовсе не обязательно наделять ИИ сознанием, хотя в отдаленной перспективе и это возможно, полагаю. Пишут, что машина УЖЕ может определить, например, сексуальную ориентацию по фото с точностью 91% для мужчин: https://www.rosbalt.ru/world/2017/09/08/1644781.html. Кстати, это лишнее доказательство естественности сексуальных девиаций. А тут пишут, что в Facebook боты начали общаться друг с другом на своем языке.
Итак, надо ли этого бояться. И чего надо бояться?
Итак, надо ли этого бояться. И чего надо бояться?
efv
Акула пера
9/10/2017, 2:14:11 PM
(mjo @ 10-09-2017 - 12:08)
НАдо ли бояться смерти? Без разницы, она все равно придет. Надо ли бояться смерти человечества? Зачем, оно все равно умрет.
Натолкнула тема о русском языке. Уважаемый King Candy отметил, что языки в принципе скоро уже изучать не придется. Машинный перевод уже есть в каждом смартфоне. И это правда. Подумал, что скоро вообще ничего изучать не будет обязательно. Посудите сами: машина ( а это каждый телефон соединенный с интернетом) УЖЕ умеет считать, причем с голоса. Машина умеет писать с голоса, причем без ошибок и написанное можно послать куда угодно. А можно распечатать. Машина УЖЕ умеет ориентироваться на местности, поможет найти дорогу, управлять авто (УЖЕ есть электрокары без водителя). Относительно в близком будущем... а может быть уже завтра, может исчезнуть ряд профессий. Машина сможет заменить не только водителей, но предвижу переводчиков, бухгалтеров, секретарш (ну это в части прямых обязанностей ), редакторов, множество рабочих профессий, корректоров и т.д. Даже врачей! Список каждый может дополнить. Принципиальных препятствий к этому УЖЕ нет. При этом вовсе не обязательно наделять ИИ сознанием, хотя в отдаленной перспективе и это возможно, полагаю. Пишут, что машина УЖЕ может определить, например, сексуальную ориентацию по фото с точностью 91% для мужчин: https://www.rosbalt.ru/world/2017/09/08/1644781.html. Кстати, это лишнее доказательство естественности сексуальных девиаций. А тут пишут, что в Facebook боты начали общаться друг с другом на своем языке.
Итак, надо ли этого бояться. И чего надо бояться?
НАдо ли бояться смерти? Без разницы, она все равно придет. Надо ли бояться смерти человечества? Зачем, оно все равно умрет.
Xрюндель
Акула пера
9/10/2017, 3:51:07 PM
(mjo @ 10-09-2017 - 12:08)
Я разделяю опасение Илона Маска насчет ИИ.
Логика простая - ИИ может иметь способность к обучению. Если ограничений к обучению нет, и если ресурсы для хранения информации не ограничены, что через некоторое время ИИ будет знать и уметь абсолютно все. И существенно больше, чем знает и умеет человек.
И тут вопрос, применит ли он свои знания и умения во благо человечеству или во зло.
Итак, надо ли этого бояться. И чего надо бояться?
Я разделяю опасение Илона Маска насчет ИИ.
Логика простая - ИИ может иметь способность к обучению. Если ограничений к обучению нет, и если ресурсы для хранения информации не ограничены, что через некоторое время ИИ будет знать и уметь абсолютно все. И существенно больше, чем знает и умеет человек.
И тут вопрос, применит ли он свои знания и умения во благо человечеству или во зло.
efv
Акула пера
9/10/2017, 4:02:34 PM
(Xрюндель @ 10-09-2017 - 13:51)
(mjo @ 10-09-2017 - 12:08)
А почему ему должно быть интересно человечество?
(mjo @ 10-09-2017 - 12:08)
Итак, надо ли этого бояться. И чего надо бояться?
Я разделяю опасение Илона Маска насчет ИИ.
Логика простая - ИИ может иметь способность к обучению. Если ограничений к обучению нет, и если ресурсы для хранения информации не ограничены, что через некоторое время ИИ будет знать и уметь абсолютно все. И существенно больше, чем знает и умеет человек.
И тут вопрос, применит ли он свои знания и умения во благо человечеству или во зло.
А почему ему должно быть интересно человечество?
Alex-Feuer
Грандмастер
9/10/2017, 4:07:11 PM
(Xрюндель @ 10-09-2017 - 13:51)
(mjo @ 10-09-2017 - 12:08)
В любом интеллекте, хоть в искусственном, хоть в естественном, само собой, сокрыт вполне понятный и легко объяснимый дуализм.
В любом интеллекте, хоть в искусственном, хоть в естественном, само собой, рано или поздно, может что-то перещелкнуть и сработать не так, не вовремя и не туда, любые системы защиты окажутся бесполезны.
Такой достаточно высокоинтеллектуальный бесноватый сумасброд, например, очередной фюрер, тем более, с ракетно-ядерной гранатой в зубах или в его плешивой ярко-красной лоснящейся павианской заднице, само собой, окажется крайне опасен.
(mjo @ 10-09-2017 - 12:08)
Итак, надо ли этого бояться. И чего надо бояться?
Я разделяю опасение Илона Маска насчет ИИ.
Логика простая - ИИ может иметь способность к обучению. Если ограничений к обучению нет, и если ресурсы для хранения информации не ограничены, что через некоторое время ИИ будет знать и уметь абсолютно все. И существенно больше, чем знает и умеет человек.
И тут вопрос, применит ли он свои знания и умения во благо человечеству или во зло.
В любом интеллекте, хоть в искусственном, хоть в естественном, само собой, сокрыт вполне понятный и легко объяснимый дуализм.
В любом интеллекте, хоть в искусственном, хоть в естественном, само собой, рано или поздно, может что-то перещелкнуть и сработать не так, не вовремя и не туда, любые системы защиты окажутся бесполезны.
Такой достаточно высокоинтеллектуальный бесноватый сумасброд, например, очередной фюрер, тем более, с ракетно-ядерной гранатой в зубах или в его плешивой ярко-красной лоснящейся павианской заднице, само собой, окажется крайне опасен.
Безумный Иван
Акула пера
9/10/2017, 4:09:06 PM
(mjo @ 10-09-2017 - 12:08)
Бояться не надо. Ибо в любом случае самая умная машина по сути своей это железка, выполняющая алгоритмы человека.
Она никогда не будет живой и она никогда не будет разумной.
Итак, надо ли этого бояться. И чего надо бояться?
Бояться не надо. Ибо в любом случае самая умная машина по сути своей это железка, выполняющая алгоритмы человека.
Она никогда не будет живой и она никогда не будет разумной.
Alex-Feuer
Грандмастер
9/10/2017, 4:20:56 PM
(Безумный Иван @ 10-09-2017 - 14:09)
(mjo @ 10-09-2017 - 12:08)
Крайне ошибочное и опасное заблуждение.
Даже самый идеальный алгоритм действий любого программно-аппаратного комплекса легко уязвим в силу невозможности гарантирования абсолютной 100%-ной надежности, помехоустойчивости и устойчивости к сбоям или поломкам данного комплекса. Причем с повышением сложности и резервируемости подсистем данного комплекса все эти проблемы возрастают по экспоненте.
Нет, практически невозможно гарантировать абсолютно надежное и совершенно безопасное функционирование чего бы то ни было, любой сложной человеко-машинной системы..
Странно слышать подобные утверждения от технически грамотного вроде бы человека.
Вам доводилось изучать теорию ошибок и погрешностей?
(mjo @ 10-09-2017 - 12:08)
Итак, надо ли этого бояться. И чего надо бояться?
Бояться не надо. Ибо в любом случае самая умная машина по сути своей это железка, выполняющая алгоритмы человека.
Она никогда не будет живой и она никогда не будет разумной.
Крайне ошибочное и опасное заблуждение.
Даже самый идеальный алгоритм действий любого программно-аппаратного комплекса легко уязвим в силу невозможности гарантирования абсолютной 100%-ной надежности, помехоустойчивости и устойчивости к сбоям или поломкам данного комплекса. Причем с повышением сложности и резервируемости подсистем данного комплекса все эти проблемы возрастают по экспоненте.
Нет, практически невозможно гарантировать абсолютно надежное и совершенно безопасное функционирование чего бы то ни было, любой сложной человеко-машинной системы..
Странно слышать подобные утверждения от технически грамотного вроде бы человека.
Вам доводилось изучать теорию ошибок и погрешностей?
Безумный Иван
Акула пера
9/10/2017, 4:42:08 PM
(Alex-Feuer @ 10-09-2017 - 14:20)
Естественно ошибки могут случаться. При этом техника может совершить разрушительное действие. Но сделает она это неосознанно. Далее. В мозги техники может проникнуть хакер и совершать разрушения уже осознанно, но это будет живой мозг хакера, а не ИИ.
Опасаться разрушительного воздействия машин можно и нужно. Я про другое. Нет причин опасаться намеренного восстания машин за счет ИИ. Никакая поломка или сбой в мозгах машины или Короткое замыкание никогда не приведет к случайному появлению ИИ. Машины никогда не будут действовать осознанно сами по себе. Либо по программе, либо ведомые чужим мозгом. Так что ИИ опасаться нет предпосылок.
Крайне ошибочное и опасное заблуждение.
Даже самый идеальный алгоритм действий любого программно-аппаратного комплекса легко уязвим в силу невозможности гарантирования абсолютной 100%-ной надежности, помехоустойчивости и устойчивости к сбоям или поломкам данного комплекса. Причем с повышением сложности и резервируемости подсистем данного комплекса все эти проблемы возрастают по экспоненте.
Нет, практически невозможно гарантировать абсолютно надежное и совершенно безопасное функционирование чего бы то ни было, любой сложной человеко-машинной системы..
Странно слышать подобные утверждения от технически грамотного вроде бы человека.
Вам доводилось изучать теорию ошибок и погрешностей?
Естественно ошибки могут случаться. При этом техника может совершить разрушительное действие. Но сделает она это неосознанно. Далее. В мозги техники может проникнуть хакер и совершать разрушения уже осознанно, но это будет живой мозг хакера, а не ИИ.
Опасаться разрушительного воздействия машин можно и нужно. Я про другое. Нет причин опасаться намеренного восстания машин за счет ИИ. Никакая поломка или сбой в мозгах машины или Короткое замыкание никогда не приведет к случайному появлению ИИ. Машины никогда не будут действовать осознанно сами по себе. Либо по программе, либо ведомые чужим мозгом. Так что ИИ опасаться нет предпосылок.
Alex-Feuer
Грандмастер
9/10/2017, 4:55:57 PM
(Безумный Иван @ 10-09-2017 - 14:42)
(Alex-Feuer @ 10-09-2017 - 14:20)
Отнюдь.
По классическим канонам приклладной теории надежности ПТН в любой момент с чем угодно может произойти все что угодно. Но вот вероятности происшествия тех или иных совершенно непредсказуемых исходов или результатов практически ничтожно, исчезающе малы. Но полностью исключить любой такой исход или даже все нежелательные события или цепочки событий человечество не в состоянии. Так что есть, не исключена на все 100%, вероятность появления некоего крайне опасного алгоритма действий самого безопасного и надежно вроде бы функционирующего искусственного или естественного интеллекта.
Любой интеллект, даже самый совершенный и безупречно вроде бы функционирующий с неизменно превосходными и блистательнейшими результатами-показателями, хоть искусственный, хоть естественный, рано или поздно изнашивается, начинает отставать в развитии и самосовершенствовании, деградировать, сбоить и отказыать.
У человека обычно начинает сильно болеть голова, что может крайне опасно отвлекать его от работы своего человеческого интеллекта.
И все, возможно совершение любой, причем крайне опасной и пагубной, ошибки или недопустимой погрешности.
(Alex-Feuer @ 10-09-2017 - 14:20)
Крайне ошибочное и опасное заблуждение.
Даже самый идеальный алгоритм действий любого программно-аппаратного комплекса легко уязвим в силу невозможности гарантирования абсолютной 100%-ной надежности, помехоустойчивости и устойчивости к сбоям или поломкам данного комплекса. Причем с повышением сложности и резервируемости подсистем данного комплекса все эти проблемы возрастают по экспоненте.
Нет, практически невозможно гарантировать абсолютно надежное и совершенно безопасное функционирование чего бы то ни было, любой сложной человеко-машинной системы..
Странно слышать подобные утверждения от технически грамотного вроде бы человека.
Вам доводилось изучать теорию ошибок и погрешностей?
Естественно ошибки могут случаться. При этом техника может совершить разрушительное действие. Но сделает она это неосознанно. Далее. В мозги техники может проникнуть хакер и совершать разрушения уже осознанно, но это будет живой мозг хакера, а не ИИ.
Опасаться разрушительного воздействия машин можно и нужно. Я про другое. Нет причин опасаться намеренного восстания машин за счет ИИ. Никакая поломка или сбой в мозгах машины или Короткое замыкание никогда не приведет к случайному появлению ИИ. Машины никогда не будут действовать осознанно сами по себе. Либо по программе, либо ведомые чужим мозгом. Так что ИИ опасаться нет предпосылок.
Отнюдь.
По классическим канонам приклладной теории надежности ПТН в любой момент с чем угодно может произойти все что угодно. Но вот вероятности происшествия тех или иных совершенно непредсказуемых исходов или результатов практически ничтожно, исчезающе малы. Но полностью исключить любой такой исход или даже все нежелательные события или цепочки событий человечество не в состоянии. Так что есть, не исключена на все 100%, вероятность появления некоего крайне опасного алгоритма действий самого безопасного и надежно вроде бы функционирующего искусственного или естественного интеллекта.
Любой интеллект, даже самый совершенный и безупречно вроде бы функционирующий с неизменно превосходными и блистательнейшими результатами-показателями, хоть искусственный, хоть естественный, рано или поздно изнашивается, начинает отставать в развитии и самосовершенствовании, деградировать, сбоить и отказыать.
У человека обычно начинает сильно болеть голова, что может крайне опасно отвлекать его от работы своего человеческого интеллекта.
И все, возможно совершение любой, причем крайне опасной и пагубной, ошибки или недопустимой погрешности.
Безумный Иван
Акула пера
9/10/2017, 5:15:40 PM
(Alex-Feuer @ 10-09-2017 - 14:55)
Я Вам еще более скажу. Я сейчас в Казани, ищу неисправность на фрезерном станке. Когда меня вызвали, неисправность проявляла себя каждые две минуты. Как я приехал, хорошо если раз в сутки она проявит себя, и то, когда я уже в гостиницу уйду вечером. Приходится трассировщик запускать что бы фиксировал сигналы в отсутствии меня и уже по вызову оператора прибегать, смотреть картину и делать выводы. Программа очень разветвленная и что бы добраться до причины, мне нужно что бы сбоев прошло штук десять. Что бы каждый раз нужную ветку диагностировать. Вот сейчас уцепился за то, что при смене инструмента в сбойном цикле теряется ориентация шпинделя. Завтра продолжу поиски почему она теряется. И такое не первый раз. Один случай был когда в Самару вызвали на токарный станок. Тоже замучил сбоями. Каждые две минуты. Как я приехал, при мне сутки отработал без сбоев. По описанию ошибки я кое-что исправил, что счел максимально вероятным, только улетел, как сбои начались снова. Тут же прилетел обратно и уже терпеливо ждал необходимого для выявления количества сбоев и нашел точную причину.
Любой ремонтник Вам расскажет кучу мистических эпизодов с техникой. Однако, когда докапываешься до сути, всегда причина оказывается вполне материальная, которая нормально вписывается в теорию вероятностей. Ни разу еще никакой Святай Дух не был обнаружен.
Так что есть, не исключена на все 100%, вероятность появления некоего крайне опасного алгоритма действий самого безопасного и надежно вроде бы функционирующего искусственного или естественного интеллекта.
Не исключена. Даже более того. Если есть хоть малая доля вероятности что что-то негативное произойдет, оно обязательно произойдет. И как бы мне ни казалось что это машина сделала осмысленно, я никогда в это не поверю. Череду маловероятных негативных случайностей я никогда не приму за осмысленные действия машины.
Любой интеллект, даже самый совершенный и безупречно вроде бы функционирующий с неизменно превосходными и блистательнейшими результатами-показателями, хоть искусственный, хоть естественный, рано или поздно изнашивается, начинает отставать в развитии и самосовершенствовании, деградировать, сбоить и отказыать.
Естественный да, а ИИ нет и быть не может.
У человека обычно начинает сильно болеть голова, что может крайне опасно отвлекать его от работы своего человеческого интеллекта.
И все, возможно совершение любой, причем крайне опасной и пагубной, ошибки или недопустимой погрешности.
Как это противоречит тому что я говорил?
Отнюдь.
По классическим канонам приклладной теории надежности ПТН в любой момент с чем угодно может произойти все что угодно. Но вот вероятности происшествия тех или иных совершенно непредсказуемых исходов или результатов практически ничтожно, исчезающе малы. Но полностью исключить любой такой исход или даже все нежелательные события или цепочки событий человечество не в состоянии.
Я Вам еще более скажу. Я сейчас в Казани, ищу неисправность на фрезерном станке. Когда меня вызвали, неисправность проявляла себя каждые две минуты. Как я приехал, хорошо если раз в сутки она проявит себя, и то, когда я уже в гостиницу уйду вечером. Приходится трассировщик запускать что бы фиксировал сигналы в отсутствии меня и уже по вызову оператора прибегать, смотреть картину и делать выводы. Программа очень разветвленная и что бы добраться до причины, мне нужно что бы сбоев прошло штук десять. Что бы каждый раз нужную ветку диагностировать. Вот сейчас уцепился за то, что при смене инструмента в сбойном цикле теряется ориентация шпинделя. Завтра продолжу поиски почему она теряется. И такое не первый раз. Один случай был когда в Самару вызвали на токарный станок. Тоже замучил сбоями. Каждые две минуты. Как я приехал, при мне сутки отработал без сбоев. По описанию ошибки я кое-что исправил, что счел максимально вероятным, только улетел, как сбои начались снова. Тут же прилетел обратно и уже терпеливо ждал необходимого для выявления количества сбоев и нашел точную причину.
Любой ремонтник Вам расскажет кучу мистических эпизодов с техникой. Однако, когда докапываешься до сути, всегда причина оказывается вполне материальная, которая нормально вписывается в теорию вероятностей. Ни разу еще никакой Святай Дух не был обнаружен.
Так что есть, не исключена на все 100%, вероятность появления некоего крайне опасного алгоритма действий самого безопасного и надежно вроде бы функционирующего искусственного или естественного интеллекта.
Не исключена. Даже более того. Если есть хоть малая доля вероятности что что-то негативное произойдет, оно обязательно произойдет. И как бы мне ни казалось что это машина сделала осмысленно, я никогда в это не поверю. Череду маловероятных негативных случайностей я никогда не приму за осмысленные действия машины.
Любой интеллект, даже самый совершенный и безупречно вроде бы функционирующий с неизменно превосходными и блистательнейшими результатами-показателями, хоть искусственный, хоть естественный, рано или поздно изнашивается, начинает отставать в развитии и самосовершенствовании, деградировать, сбоить и отказыать.
Естественный да, а ИИ нет и быть не может.
У человека обычно начинает сильно болеть голова, что может крайне опасно отвлекать его от работы своего человеческого интеллекта.
И все, возможно совершение любой, причем крайне опасной и пагубной, ошибки или недопустимой погрешности.
Как это противоречит тому что я говорил?
Alex-Feuer
Грандмастер
9/10/2017, 5:29:40 PM
(Безумный Иван @ 10-09-2017 - 15:15)
Возможно вполне появление неких элементов или зачатков искусственного интеллекта в результате сбоя или неполадки.
Как это противоречит тому что я говорил?
Возможно вполне появление неких элементов или зачатков искусственного интеллекта в результате сбоя или неполадки.
Безумный Иван
Акула пера
9/10/2017, 5:34:12 PM
(Alex-Feuer @ 10-09-2017 - 15:29)
(Безумный Иван @ 10-09-2017 - 15:15)
Как это противоречит тому что я говорил? Возможно вполне появление неких элементов или зачатков искусственного интеллекта в результате сбоя или неполадки. Для этого надо хотя бы знать что такое ИИ и по каким критериям мы отличим ИИ от процессора.
И возможно ли вообще существование ИИ.
Человек не в состоянии создать одну живую клетку, не то что искусственный разум. И опасаться того что это за человека сделает простой сбой, смешно.
(Безумный Иван @ 10-09-2017 - 15:15)
Как это противоречит тому что я говорил? Возможно вполне появление неких элементов или зачатков искусственного интеллекта в результате сбоя или неполадки. Для этого надо хотя бы знать что такое ИИ и по каким критериям мы отличим ИИ от процессора.
И возможно ли вообще существование ИИ.
Человек не в состоянии создать одну живую клетку, не то что искусственный разум. И опасаться того что это за человека сделает простой сбой, смешно.
Alex-Feuer
Грандмастер
9/10/2017, 5:36:00 PM
(Безумный Иван @ 10-09-2017 - 15:34)
(Alex-Feuer @ 10-09-2017 - 15:29)
(Безумный Иван @ 10-09-2017 - 15:15)
Незачет.
Ответ неконкретный.
(Alex-Feuer @ 10-09-2017 - 15:29)
(Безумный Иван @ 10-09-2017 - 15:15)
Как это противоречит тому что я говорил?
Возможно вполне появление неких элементов или зачатков искусственного интеллекта в результате сбоя или неполадки.
Для этого надо хотя бы знать что такое ИИ и по каким критериям мы отличим ИИ от процессора.
И возможно ли вообще существование ИИ.
Незачет.
Ответ неконкретный.
Безумный Иван
Акула пера
9/10/2017, 5:39:27 PM
(Alex-Feuer @ 10-09-2017 - 15:36)
(Безумный Иван @ 10-09-2017 - 15:34)
(Alex-Feuer @ 10-09-2017 - 15:29)
Подумайте о чем Вы говорите.
В результате сбоя или ошибки в программе Вы опасаетесь что возникнет искусственный разум.
Что это такое, не знает никто. Смутно представляем по фильму "Трансформеры" Но почему-то считаем что для ИИ процессора с стандартной системой команд и памяти вставленной в слот будет для этого вполне достаточно.
(Безумный Иван @ 10-09-2017 - 15:34)
(Alex-Feuer @ 10-09-2017 - 15:29)
Возможно вполне появление неких элементов или зачатков искусственного интеллекта в результате сбоя или неполадки.
Для этого надо хотя бы знать что такое ИИ и по каким критериям мы отличим ИИ от процессора.
И возможно ли вообще существование ИИ.
Незачет.
Ответ неконкретный.
Подумайте о чем Вы говорите.
В результате сбоя или ошибки в программе Вы опасаетесь что возникнет искусственный разум.
Что это такое, не знает никто. Смутно представляем по фильму "Трансформеры" Но почему-то считаем что для ИИ процессора с стандартной системой команд и памяти вставленной в слот будет для этого вполне достаточно.
Alex-Feuer
Грандмастер
9/10/2017, 5:47:04 PM
(Безумный Иван @ 10-09-2017 - 15:39)
(Alex-Feuer @ 10-09-2017 - 15:36)
(Безумный Иван @ 10-09-2017 - 15:34)
Да все нынче на эту тему думают-размышляют на самом деле.
Как уже было сказано, отнюдь не исключена возможность некоего самопроизвольного формирования, срабатывания и запуска функционирования некоего самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма или даже сверх-алгоритма в некоем достаточно мощном программно-аппаратном или даже человеко-машинном комплексе.
(Alex-Feuer @ 10-09-2017 - 15:36)
(Безумный Иван @ 10-09-2017 - 15:34)
Для этого надо хотя бы знать что такое ИИ и по каким критериям мы отличим ИИ от процессора.
И возможно ли вообще существование ИИ.
Незачет.
Ответ неконкретный.
Подумайте о чем Вы говорите.
В результате сбоя или ошибки в программе Вы опасаетесь что возникнет искусственный разум.
Что это такое, не знает никто. Смутно представляем по фильму "Трансформеры" Но почему-то считаем что для ИИ процессора с стандартной системой команд и памяти вставленной в слот будет для этого вполне достаточно.
Да все нынче на эту тему думают-размышляют на самом деле.
Как уже было сказано, отнюдь не исключена возможность некоего самопроизвольного формирования, срабатывания и запуска функционирования некоего самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма или даже сверх-алгоритма в некоем достаточно мощном программно-аппаратном или даже человеко-машинном комплексе.
Безумный Иван
Акула пера
9/10/2017, 5:54:49 PM
(Alex-Feuer @ 10-09-2017 - 15:47)
Почему Вы считаете что для создания ИИ достаточно наличие существующего компьютерного железа и нехватает только самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма? Почему он должен появиться на базе компьютера или компьютерной системы, а не в жиже грязи с аминокислотами, куда ударит молния? Откуда уверенность что существующего железа для этого вполне достаточно?
Да все нынче на эту тему думают-размышляют на самом деле.
Как уже было сказано, отнюдь не исключена возможность некоего самопроизвольного формирования, срабатывания и запуска функционирования некоего самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма или даже сверх-алгоритма в некоем достаточно мощном программно-аппаратном или даже человеко-машинном комплексе.
Почему Вы считаете что для создания ИИ достаточно наличие существующего компьютерного железа и нехватает только самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма? Почему он должен появиться на базе компьютера или компьютерной системы, а не в жиже грязи с аминокислотами, куда ударит молния? Откуда уверенность что существующего железа для этого вполне достаточно?
mjo
Удален 9/10/2017, 6:23:35 PM
(Xрюндель @ 10-09-2017 - 13:51)
Вовсе не обязательно доверять ИИ самостоятельно принимать глобальные решения по основным жизненно важным и определяющим проблемам человечества. Вовсе не обязательно наделять его сознанием и моралью, даже если это станет возможно. От него требуется управление в какой-то локальной области.
Я разделяю опасение Илона Маска насчет ИИ.
Логика простая - ИИ может иметь способность к обучению. Если ограничений к обучению нет, и если ресурсы для хранения информации не ограничены, что через некоторое время ИИ будет знать и уметь абсолютно все. И существенно больше, чем знает и умеет человек.
И тут вопрос, применит ли он свои знания и умения во благо человечеству или во зло.
Вовсе не обязательно доверять ИИ самостоятельно принимать глобальные решения по основным жизненно важным и определяющим проблемам человечества. Вовсе не обязательно наделять его сознанием и моралью, даже если это станет возможно. От него требуется управление в какой-то локальной области.
efv
Акула пера
9/10/2017, 6:30:09 PM
(mjo @ 10-09-2017 - 16:23)
(Xрюндель @ 10-09-2017 - 13:51)
Обязательно. К этому неумолимо ведет атеистическая логика. Вернее логика атеистов.
(Xрюндель @ 10-09-2017 - 13:51)
Я разделяю опасение Илона Маска насчет ИИ.
Логика простая - ИИ может иметь способность к обучению. Если ограничений к обучению нет, и если ресурсы для хранения информации не ограничены, что через некоторое время ИИ будет знать и уметь абсолютно все. И существенно больше, чем знает и умеет человек.
И тут вопрос, применит ли он свои знания и умения во благо человечеству или во зло.
Вовсе не обязательно доверять ИИ самостоятельно принимать глобальные решения по основным жизненно важным и определяющим проблемам человечества. Вовсе не обязательно наделять его сознанием и моралью, даже если это станет возможно. От него требуется управление в какой-то локальной области.
Обязательно. К этому неумолимо ведет атеистическая логика. Вернее логика атеистов.
Alex-Feuer
Грандмастер
9/10/2017, 7:01:40 PM
(Безумный Иван @ 10-09-2017 - 15:54)
(Alex-Feuer @ 10-09-2017 - 15:47)
Я этого не говорил.
Я сказал лишь то, что сказал.
Не следует слишком узко или, отнюдь, произвольно трактовать мои слова.
В не таком уж далеком будущем вполне допустимо создание и появление неких программируемых и самопрограммирующихся биотехнических или бионических комплексов.
(Alex-Feuer @ 10-09-2017 - 15:47)
Да все нынче на эту тему думают-размышляют на самом деле.
Как уже было сказано, отнюдь не исключена возможность некоего самопроизвольного формирования, срабатывания и запуска функционирования некоего самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма или даже сверх-алгоритма в некоем достаточно мощном программно-аппаратном или даже человеко-машинном комплексе.
Почему Вы считаете что для создания ИИ достаточно наличие существующего компьютерного железа и нехватает только самостоятельно функционирующего, саморазвивающегося, самоснабжающегося и самосовершенствующегося алгоритма? Почему он должен появиться на базе компьютера или компьютерной системы, а не в жиже грязи с аминокислотами, куда ударит молния? Откуда уверенность что существующего железа для этого вполне достаточно?
Я этого не говорил.
Я сказал лишь то, что сказал.
Не следует слишком узко или, отнюдь, произвольно трактовать мои слова.
В не таком уж далеком будущем вполне допустимо создание и появление неких программируемых и самопрограммирующихся биотехнических или бионических комплексов.
avp
Акула пера
9/10/2017, 7:39:00 PM
(mjo @ 10-09-2017 - 12:08)
Констатируем: без Интернета всё это работать не будет, в отличие от человека.
Натолкнула тема о русском языке. Уважаемый King Candy отметил, что языки в принципе скоро уже изучать не придется. Машинный перевод уже есть в каждом смартфоне. И это правда. Подумал, что скоро вообще ничего изучать не будет обязательно. Посудите сами: машина ( а это каждый телефон соединенный с интернетом) УЖЕ умеет считать, причем с голоса. Машина умеет писать с голоса, причем без ошибок и написанное можно послать куда угодно. А можно распечатать. Машина УЖЕ умеет ориентироваться на местности, поможет найти дорогу, управлять авто (УЖЕ есть электрокары без водителя). Относительно в близком будущем... а может быть уже завтра, может исчезнуть ряд профессий. Машина сможет заменить не только водителей, но предвижу переводчиков, бухгалтеров, секретарш (ну это в части прямых обязанностей ), редакторов, множество рабочих профессий, корректоров и т.д. Даже врачей! Список каждый может дополнить. Принципиальных препятствий к этому УЖЕ нет. При этом вовсе не обязательно наделять ИИ сознанием, хотя в отдаленной перспективе и это возможно, полагаю. Пишут, что машина УЖЕ может определить, например, сексуальную ориентацию по фото с точностью 91% для мужчин: https://www.rosbalt.ru/world/2017/09/08/1644781.html. Кстати, это лишнее доказательство естественности сексуальных девиаций. А тут пишут, что в Facebook боты начали общаться друг с другом на своем языке.
Итак, надо ли этого бояться. И чего надо бояться?
Констатируем: без Интернета всё это работать не будет, в отличие от человека.