Нейросети: за и против.

Книгочей
Книгочей
Удален
6/16/2023, 1:43:49 PM
Уже есть тема "Фантазии - на службу стране и армии": https://sxn.io/fantazii-na-sluzhbu...rmii-t.html?hl=

Но в данном случае, с научно-техническими достижениями на повестке дня становится важным вопрос о нейросетях, вообще и в частности. В частности - это использование нейросети в военном деле, т.к. известно что на оборону сил и средств отпускается много. Даже больше, чем на всё остальное, если не суммарно, то по отдельности. Во всяком случае, в бюджетах некоторых стран военные расходы составляют "львиную долю". И это неудивительно, исходя ихз постулата "хочешь мира, готовься к войне".

Поэтому, стоит узнать и обсудить вопрос о допустимости свободы воли для ИИ во время ведения войны и действий по поддержанию общественного порядка, а так же ответственности за допущенные ИИ ошибки. Ведь, юридической базы, определяющей это пока нет. Кроме законов робототехники писателя-фантаста Айзека Азимова. А жертвы уже есть.

К сему: Война и нейросети: как ИИ используют на поле боя:"Представьте: отступающая армия спасается бегством, пока ее преследуют десятки небольших дронов, на первый взгляд неотличимых от любительских. Устройства оборудованы камерами для сканирования местности и процессорами, отвечающими за автономное принятие решений о том, что выглядит как цель. Беспилотники начинают уничтожать грузовики и отдельных солдат, взрываясь при контакте с объектом.

Это не научная фантастика о войнах будущего, а уже случившееся весной 2020 года событие. Тогда верные Халифе Хафтару солдаты отступали от поддерживаемых Турцией сил ливийского правительства. По словам представителей Организации Объединенных Наций, способные работать без участия человека дроны «выслеживали» спасающихся бегством ополченцев.Тогда в ООН зафиксировали первый случай в истории, когда беспилотник без прямого приказа от оператора убил человека. Это только один пример использования автономных систем на поле боя, и есть множество других вариантов их применения для различных задач."(с)

Источник: https://forklog.com/exclusive/ai/vojna-i-ne...ut-na-pole-boya
Книгочей
Книгочей
Удален
6/16/2023, 2:17:02 PM
О "бунте машин" говорится уже давно, ещё с 20 года прошлого века (Карел Чапек «Р. У. Р.» - «Россумские универсальные роботы»), но сейчас группа учёных и руководителей технологических компаний, включая OpenAI и Google DeepMind, сравнили опасность их технологий с пандемией. Стремительное развитие технологий, в том числе искусственного интеллекта, беспокоит не только ученых. Свои опасения выражали также миллиардеры Илон Маск, Билл Гейтс и Джек Ма. Искусственный интеллект в будущем может стать причиной гибели человеческой цивилизации, предупредил известный британский физик и космолог Стивен Хокинг. С таким заявлением он выступил в ходе видеоконференции в Пекине, состоявшейся в рамках Глобальной конференции мобильного интернета, передает South China Morning Post. И есть те, кто не ограничиваются только заявлениями, а предпринимают действия, как например в числе тех, кто открыто задавался вопросами об этичности использования ChatGPT, c самого начала был разработчик нейросетей, британо-канадский ученый Джеффри Хинтон. Он внес значимый вклад в развитие чат-ботов с искусственным интеллектом, но за последние месяцы превратился в принципиального противника неосмотрительного применения ИИ. А весной 2023 года он даже покинул компанию Google.

ВИДЕО "Первые зачатки разума у искусственного интеллекта // Шокирующий диалог ИИ и инженера Google."





С другой стороны, есть те, кому выгодно широкое использование нейросетей и внедрение их во все области жизни. В том числе, и в военную, а так же при поддержании в обществе правопорядке. При этом, опасность может заключаться не только в злоупотреблениях тех, кто будет контролировать и управлять нейросетями, но и в возможности того что ИИ решит что люди ему помеха или вообще лишние. А то что несмотря на предупреждения некоторых учёных, нейросети и ИИ станут оборонными элементами и на страже правопорядка, нет никаких сомнений - достаточно вспомнить о ядерном оружии об опасности которого тоже предупреждали некоторые из его создателей. А главное, в масштабах распространения и использовании, аналогично всех видов оружия массового поражения (ОМП), т.к. вслед за странами нейросети и ИИ пожелают владеть террористы и криминалитет. И вообще, не факт что боевые действия без применения ОМП, но с использованием ИИ будут менее кровопролитными!

К сему: Нейронная сеть для ведения боевых действий. Какая война может быть с технологически развитой страной?: "Ежеминутные военные сводки наших СМИ непроизвольно в голове программиста преобразуются в технологические решения. Заранее скажем, что мы не выдаем военных тайн ничьих стран, а только излагаем наше видение автоматизации процесса. Хотя всегда надо помнить поговорку от компании Спецлаб: если к тебе пришла умная мысль, значит, она уже кем-то реализована."(с)

Подробнее на источике: https://habr.com/ru/articles/671948/
Книгочей
Книгочей
Удален
6/24/2023, 3:25:09 AM
Даже если не будет "бунта машин", то есть другие опасности которые могут таиться в развитии ИИ. Например, он станет настолько умным что даже люди гении не будут годиться ему в подмётки. К сему: Ученые: управлять сверхразумным ИИ будет невозможно: "Насколько вероятно, что мы сможем управлять компьютерным сверхразумом высокого уровня? Ученые еще в 2021 году подсчитали наши шансы. Ответ? Почти наверняка сдержать искусственный интеллект мы не сможем.
скрытый текст
Опасения по поводу ИИ не безосновательны — нейросети действительно могут выйти из-под контроля.
Об идее искусственного интеллекта, который свергнет человечество, говорили десятилетиями, а такие программы, как ChatGPT, только возобновили эти опасения. Мы не боимся только до тех пор, пока управляем и контролируем ИИ.

Но загвоздка в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется симуляция этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии это понять, создать такую симуляцию просто невозможно.

Будем ли мы управлять ИИ?

Такие правила, как «не причинять вреда людям», не могут быть установлены, если мы не понимаем, какие сценарии может придумать ИИ, предполагают ученые. Как только компьютерная система заработает на уровне, превышающем возможности наших программистов, мы больше не сможем устанавливать ограничения.

«Сверхразум ставит принципиально иную проблему, чем те, которые обычно изучаются под лозунгом "этики роботов"", - писали исследователи еще в 2021 году.

«Это потому, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непостижимы для людей, не говоря уже о том, что ими можно управлять».

Часть рассуждений команды исходит из проблемы остановки, выдвинутой Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы знать, придет ли компьютерная программа к выводу и ответу (и остановится) или просто навечно зациклится, пытаясь его найти.

Как доказал Тьюринг, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана.

Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно хранить в своей памяти все возможные компьютерные программы.

Например, любая программа, написанная для того, чтобы ИИ не причинил вреда людям и не разрушил мир, может прийти к какому–то выводу (и остановиться) или нет — в любом случае математически невозможно быть абсолютно уверенным, что такой сверхразум можно будет сдержать. Это означает, что контролировать его будет невозможно.

Альтернативой обучению ИИ некоторой этике и приказу ему не разрушать мир – в чем, по словам исследователей, ни один алгоритм не может быть абсолютно уверен, – является ограничение возможностей сверхразума. Например, он может быть отрезан от части Интернета или от определенных сетей.

Исследование 2021 года также отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта – аргумент заключается в том, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем его вообще создавать?

Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится неподконтрольный нам сверхразум, настолько он непостижим. Это означает, что нам нужно начать задавать некоторые серьезные вопросы о направлениях, в которых мы движемся."(с)

Источник: https://www.techinsider.ru/news/news-159962...det-nevozmojno/
Книгочей
Книгочей
Удален
6/24/2023, 3:32:56 AM
Почему некоторые ученые опасаются ИИ? Чем ИИ может отличаться от человеческого разума? К сему: Искусство интеллекта: "— В чем, на ваш взгляд, заключается различие между интеллектом искусственным и естественным?

— Прежде всего — определений интеллекта у нас слишком много. Единственный бесспорный пример интеллекта — человеческий. Конечно, если вы не солипсист, вы предполагаете наличие интеллекта у других людей. Собираясь дать определение интеллекту, мы оказываемся в неприятном положении: по одному-единственному примеру надо построить некоторое множество. Через одну точку можно провести бесконечное количество прямых; точно так же дело обстоит и с определением интеллекта. Оно может быть узким — охватывая только человеческий интеллект и никакой больше, — а если попробовать его расширить, то придется признать наличие интеллекта у некоторых животных. Только у высших приматов или у приматов вообще? Или же у всех зверей без исключения? Неизбежно какие-то из этих определений интеллекта будут включать в себя некие искусственные системы — и уже сделанные нами, и те, которые мы надеемся создать в будущем."(с) Сергей Марков, специалист в области искусственного интеллекта, начальник Управления экспериментальных систем машинного обучения Департамента общих сервисов «Салют» Сбера, основатель научно-популярного портала XX2 ВЕК, отвечает на вопросы Ксении Королёвой о нейросетях. Видеозапись беседы см. youtu.be/P7Yp1zk-nI8

Источник: https://www.trv-science.ru/2023/06/iskusstvo-intellekta/
Книгочей
Книгочей
Удален
7/4/2023, 8:22:42 PM

Нейросети: за и против.
Известно что разработчик нейросетей, британо-канадский ученый Джеффри Хинтон. Он внес значимый вклад в развитие чат-ботов с искусственным интеллектом, но за последние месяцы превратился в принципиального противника неосмотрительного применения ИИ. А весной 2023 года он даже покинул компанию Google. Но может быть он ушёл из компании Google не в знак протеста, а по другой причине? И теперь просто хочет отомстить! И как можно верить учёным которые работают на капиталистов? А что говорят российские специалисты вотношении опасности нейросетей? К сему: ВИДЕО Татьяна Черниговская: Опасные нейросети:
скрытый текст
"Ему не надо спать, он не устает, он не влюбляется и не разводится!
Он может работать 24/7.
Татьяна ЧЕРНИГОВСКАЯ уверена, что мы проиграем в битве с ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ.
Мы будем меньше использовать МОЗГ и ПАМЯТЬ.
У нас появился КОНКУРЕНТ.
Татьяна Владимировна опасается, что у НЕЙРОСЕТИ может быть и СОЗНАНИЕ.
Что нам делать? Как выжить?
И как завтра мы будем отличать правду от вымысла?
Настоящие фотографии и видео от изображений созданных ИИ?
Помните изображение папы римского Франциска в модном белом пуховике? Ведь, многие подумали, что это реальный ПАПА.

В общем, НЕЙРОСЕТЬ уже начинает менять нашу жизнь. О том, как выжить и отвоевать свое место под солнцем российский ученый в области нейронауки и психолингвистики Т.В. Черниговская - советская и российская учёная в области нейронауки и психолингвистики, а также теории сознания. Доктор биологических наук, доктор филологических наук, член-корреспондент РАО. Заслуженный деятель высшего образования и Заслуженный деятель науки РФ (2010). Профессор кафедры общего языкознания СПбГУ, заведующая лабораторией когнитивных исследований и кафедрой проблем конвергенции естественных и гуманитарных наук СПбГУ.

Содержание:

00:00:00 Анонс
00:01:23 Искусственный интеллект. Морфиус
00:01:36 Татьяна Черниговская
00:02:06 Нейронная сеть. Ее учили как учились мы
00:03:42 Нейронная сеть как личность
00:03:07 Она ела буквы
00:03:30 Чего опасаться
00:03:48 Угроза нейронной сети
00:04:09 Чат GPT
00:05:18 Они будут стремиться к нам
00:05:27 Интеллект
00:05:52 Гугл. Google
00:06:55 Память
00:07:32 Мозг
00:07:44 Мозгу должно быть сложно
00:09:16 Фейковые новости
00:10:27 Как отличить правду от вымысла
00:11:52 Естественный интеллект и искусственный интеллект
00:11:56 Ему не надо спать, он не устает, он не влюбляется, он не разводится!
00:13:55 Цивилизация праздности
00:14:38 Коллаборация искусственного интеллекта с естественным
00:14:46 Зачем ИИ с нами дружить?
00:15:34 Он работает с Big Data
00:16:09 Искусственный интеллект- имитация эмоций
00:17:42 Лекция Татьяны Черниговской в Московском институте психоанализа
00:17:56 Эркюль Пуаро, Мисс Марпл
00:18:02 Почему все не занимаются наукой
00:18:26 Причина следственной связи
00:19:06 Прецедентное право
00:19:48 Когнитивная наука
00:20:37 Как маленькие дети усваивают человеческий язык
00:23:38 Психические заболевания
00:23:57 Шизофрения
00:24:26 Что приводит к психическим расстройствам?
00:24:52 Депрессия
00:26:22 Маниакальное состояние
00:29:05 Как мыслили великие люди мира
00:31:00 Эффект эврика
00:32:03 Моцарт
00:32:49 Михаил Ломоносов
00:33:00 Нужно читать письма гениев
00:37:00 Винсент ван Гог
00:38:32 Как трактовать данные экспериментальных наук
00:39:49 Интеллектуалы
00:42:14 Юрий Лотман
00:44:13 Осип Эмильевич Мандельштам
00:47:34 Вербальный язык
00:48:25 Как оставаться энергичной
00:49:50 Риски."(с)




Книгочей
Книгочей
Удален
7/4/2023, 8:37:42 PM
При всём уважении к Т.В. Черниговской, можно сомневаться в её предположениях, т.к. она женщина и мать, а значит более эмоциональна и подвержена инстинкту самосохранения болльше чем мужчины из-за наличия инстинкта продолжения рода и рефлекса заботы о потомстве. К тому же, не исключена и религиозная составляющая, если она верующая, что тоже может влиять на её убеждения.
скрытый текст
В этом смысле показателен пример Натальи Бехтеревой, которая 1975 году стала академиком АМН СССР (впоследствии РАМН), а 1981 году — академиком АН СССР. С 1990 года — научный руководитель Центра «Мозг» АН СССР, с 1992 года — Института мозга человека РАН, руководитель научной группы нейрофизиологии мышления, творчества и сознания, но при этом, её критиковали за лояльное отношение к мистике и, как утверждалось, в том числе со стороны Комиссии по борьбе с лженаукой РАН, некорректно поставленные эксперименты по проверке экстрасенсорных способностей. Н. П. Бехтерева полемизировала с этой критикой. Н. П. Бехтерева положительно отзывалась о некоторых концепциях, таких как гипотеза о происхождении человека от акродельфидов, кожное зрени и выступала за научное изучение феноменов Ванги и Кашпировского.
Поэтому, для чистоты эксперимента, надо узнать точку зрения специалиста из числа представителей мужского пола.

К сему: ВИДЕОАндрей Себрант. Нейросети научились творчеству. Чем это нам грозит?:
скрытый текст
Гость нового выпуска - Андрей Себрант, директор по маркетингу сервисов «Яндекса». Обсудили все прорывы в создании искусственного интеллекта. Может у нейросетей появится сознание?
В чем важность машинного обучения? Заменят ли голосовые помощники родственников, а роботы - кассиров? И можно ли робота обучить этике?
Содержание:

00:00 тизер
01:25 гость Андрей Себрант
03:13 о важности машинного обучения
05:56 о прорыве в развитии нейросетей и голосовых помощников
12:02 о нейросетях в творчестве
14:02 может ли нейросеть написать хороший сценарий?
16:27 как нейросеть пишет статьи?
18:19 о кейсе Блейка Лемойна, которого уволили из Google
20:31 робот понимает юмор?
21:54 может у нейросетей появится сознание?
25:44 различие искусственного интеллекта и личности
28:42 робот может чувствовать?
30:57 о пользе голосовых помощников
32:40 о зависимости людей от технологий
35:27 о главных прорывах в использовании нейросетей
38:14 шахматы и нейтронные сети
40:18 о феномене NFT
45:18 о рисках управления искусственным интеллектом
50:21 можно ли робота обучить этике?
54:11 заключение."(с)
.



Книгочей
Книгочей
Удален
7/10/2023, 9:54:31 PM

"Это не научная фантастика о войнах будущего, а уже случившееся весной 2020 года событие. Тогда верные Халифе Хафтару солдаты отступали от поддерживаемых Турцией сил ливийского правительства. По словам представителей Организации Объединенных Наций, способные работать без участия человека дроны «выслеживали» спасающихся бегством ополченцев.Тогда в ООН зафиксировали первый случай в истории, когда беспилотник без прямого приказа от оператора убил человека. Это только один пример использования автономных систем на поле боя, и есть множество других вариантов их применения для различных задач."(с)
Источник: https://forklog.com/exclusive/ai/vojna-i-ne...ut-na-pole-boya
А вот свежий пример: Спецназовец из «Ахмата» рассказал об опасных технических новинках ВСУ: "Кроме того, сообщил Раут, ВСУ используют для слежения видеокамеры с датчиками движения. Они довольно внушительных размеров и оснащены искусственным интеллектом. Камеры автоматически передают координаты объектов, попадающих в поле зрения. «К сожалению, заглушить камеру невозможно, так как она проводная. Ее можно только лишь уничтожить, либо отрубить от провода», — рассказал он."(с)

Источник: https://vpk.name/news/742558_specnazovec_iz...vinkah_vsu.html
Книгочей
Книгочей
Удален
8/22/2023, 11:05:07 AM
ПО ТЕМЕ Проблемы воспитания: кто и как обучает нейросети: "AI–тренеры учат нейросети отвечать на запросы точно, этично и безопасно. Но интернет–тролли изобретают всё новые способы обхода этих фильтров."(с)
Подробнее: https://www.dp.ru/a/2023/08/22/problemi-vospitanija-kto-i
Книгочей
Книгочей
Удален
8/31/2023, 5:53:04 PM
По теме Искусственный интеллект как пример нечеловеческого разума в фантастической литературе: "Как уже было сказано в предыдущей статье, искусственный интеллект, в отличие от внеземных разумных форм жизни, — это в некотором смысле продолжение человеческой цивилизации, так как его гипотетическое возникновение есть результат земного технологического прогресса и усилий человеческого разума. Фактор «воли» или намеренность в данном случае — важный квалифицирующий признак, отличающий разум, который кто-то создал, от разума, возникшего в результате эволюции."(с)

Далее: https://spb.hse.ru/ixtati/news/716230561.html
Книгочей
Книгочей
Удален
8/31/2023, 6:00:25 PM
По теме Искусственный интеллект в цикле «Мир полудня»: пессимистичный прогноз самых оптимистичных авторов: "Действительно, в большинстве романов достижения машинных технологий являются лишь фоном повествования и только в двух главах из первой книги цикла, «Полдень, XXII век», искусственный интеллект (на самых ранних этапах своего развития) представлен как центральный предмет изображения. В главе «Загадка задней ноги» описывается любопытная машина — Коллектор Рассеянной Информации, которую герои в шутку называют Великий КРИ. В основе работы этой машины лежит гипотеза, которая в книге описана следующим образом:

«Ничто в природе и тем более в обществе не проходит бесследно, всё оставляет следы. … следы накладываются друг на друга, смешиваются, частично стираются следами последующих событий и явлений. Теоретически любой след можно отыскать и восстановить – и след столкновения кванта света с молекулой в шкуре бронтозавра, и след зубов бронтозавра на древовидных папоротниках».(с)

Далее: https://spb.hse.ru/ixtati/news/720096036.html
Книгочей
Книгочей
Удален
9/6/2023, 6:20:02 PM
По теме Будущее искусственного интеллекта: как изменится наша жизнь с массовым приходом нейросетей: "В современном мире искусственный интеллект (ИИ) становится все более популярным и востребованным инструментом. Он революционно меняет различные сферы жизни, структуру рабочих мест и затрагивает почти все аспекты нашего общества. Но что нас ждет в будущем, когда нейросети станут еще продвинутее?"(с) См.: https://vpk.name/news/768862_budushee_iskus...neirosetei.html