Элон Маск - проснитесь, вы в матрице!
П
ПоплавочникX
Да чета нормальных слов для поиска подобрать не могу, много хери вылазит.
Да нет особого смысла искать чёрную кошку в тёмной комнате и далее по тексту . ))
Мне
проще извиниться: Извиняюсь, был не прав.
Да , ничего страшного .
Да как оказалось, это совсем необязательно. Сиддхатха-то не бог и даже не сын божий, всеведением не владел, потому шел методом проб и ошибок. Сперва делал
"как все" вот и ушел в лес. Кстати, таки чуть не помер от голода, но зато придумал Срединный Путь - типа все надо делать без фанатизма, даже просветляться. Про тело забывать не надо, даже если охеренно духовный практик.
Так про тело и захочет кто забыть , так оно о себе желающему всяко напомнит . Будь то хоть просветлённый , хоть затемнённый . ))
Так про тело и захочет кто забыть , так оно о себе желающему всяко напомнит . Будь то хоть просветлённый , хоть затемнённый . ))
Да нет. Заставь дурака богу молиться... В общем, бывают такие аскеты, особенно среди индусов, которые бы в Бухенвальде погонялово Дистрофик имели.
П
ПоплавочникX
В общем, бывают такие аскеты, особенно среди индусов, которые бы в Бухенвальде погонялово Дистрофик имели.
Худые очень , понимаю . Дайте попробую угадать причину ... Едят мало , наверное . ))
Едят мало , наверное .
Ладно мало, так еще гавно всякое! Причем есть и такие, которые таки да... в буквальном смысле. И не напоказ, для понта, а всегда :-) Или трупы.. чем более несвежие, тем круче и святее аскет.
Худые очень , понимаю . Дайте попробую угадать причину ... Едят мало , наверное . ))
Знал мужика, худой, погонялово было "реактивный самолёт".
Потому что пожрать любил, ел за двоих, но не в прок было. Типа как у реактивного самолёта, большая дыра спереди и большая сзади. Вся еда насквозь пролетает.
Аскет в чистом виде, впалая грудь, тонкая кость, узкие плечи, отсутствие подкожного жира.
П
ПоплавочникX
Потому что пожрать любил, ел за двоих, но не в прок было. Типа как у реактивного самолёта, большая дыра спереди и большая сзади. Вся еда насквозь пролетает.
Аскет в чистом виде, впалая грудь, тонкая кость, узкие плечи, отсутствие подкожного жира.
У буддистов наверное за просветлённого аскета сошёл бы . ))
У буддистов наверное за просветлённого аскета сошёл бы . ))
Нет, у буддистов - срединных путь, т.е. они конечно куда тоньше попов, но аскетизм не практикуют - до полудня можно (и нужно) жрать сколько влезет.
Про Элона в оригинале не совсем так. Их работы по созданию искусственного разума привели к пониманию, что разум, даже искусственный, сначала сам строит некую базовую матрицу, а потом рассовывает что куда надо. Это позволило предположить сходную аналогию, как общее условие строения разума. Остальное
накрутили журналисты.
W
Went Away
сначала сам строит некую базовую матрицу
Один в поле не воин, а мозг-парный орган. Искуственному интеллекту понадобится общество и дублирующе-дополняющий функционал.
W
Went Away
Это у вас из какого полушария мысль?
Почитайте про реальных "Маугли". Мозги-то у них нормальные, но вот общества они были лишены. И чего вы ждете от аналогичных "Маугли - ИИ"?
П
ПоплавочникX
Нет, у буддистов - срединных путь
Это наверно правильно . Всегда надо какую-то середину найти . А то можно , если берегов не видишь , в ту же нирвану раньше времени загреметь или , говоря проще , на кладбище , как все смертные .
Когда ИИ захватит планету и людей не останется, в глобальной сети сформируется легенда о великом создателе разума планеты.
О древней цивилизации владевшей настолько сложным и не просчитываемым способом мышления, что все компьютеры планеты не способны понять ход рассуждений биологического вида, сознательно создавшего то, что его уничтожит.
О древней цивилизации владевшей настолько сложным и не просчитываемым способом мышления, что все компьютеры планеты не способны понять ход рассуждений биологического вида, сознательно создавшего то, что его уничтожит.
Фантастический фильм, снятый по сценарию ИИ.
По его меркам всё нормально, но по человеческим - бред.
http://hi-news.ru/entertainment/video-iskusstvenny...
[Сообщение изменено пользователем 11.06.2016 02:27]
По его меркам всё нормально, но по человеческим - бред.
http://hi-news.ru/entertainment/video-iskusstvenny...
[Сообщение изменено пользователем 11.06.2016 02:27]
По его меркам всё нормально, но по человеческим - бред.
Не бред, а вполне себе годный сюр :-) Чем они отличаются и отличаются ли - это другой вопрос. Но если начать искать глубинный смысл, то можно найти не менее, чем у какого-нить Бунюэля. К тому же диалоги сильно напоминают оные в данном форуме.
В обчем, мне поперло.
S
Stavr
Почитайте про реальных "Маугли". Мозги-то у них нормальные, но вот общества они были лишены. И чего вы ждете от аналогичных "Маугли - ИИ"?
вот это как раз настраивает на оптимизьм
О древней цивилизации владевшей настолько сложным и не просчитываемым способом мышления, что все компьютеры планеты не способны понять ход рассуждений биологического вида, сознательно создавшего то, что его уничтожит.
не волнуйтесь, не захватит
Простой вопрос - ИИ будет один?
А если таки их будет несколько, тем более много, то у них что, у же между собой обязательно должна война начаться? Ну за захвата в смысле?
Я вот лично не вижу особой разницы между неким отдельным ИИ и скажем любым другим человеком, ну пусть ужасно умным человеком. Ну допустим даже у этого САМОГО УМНОГО В МИРЕ человека возникла мысль ЗАХВАТИТЬ МИР и уничтожить всех прочих людей и цивилизацию людей вообще. НУ мало ли! Получится? Сильно маловероятно. Просто очень маловероятно Иба быстро натолкнется на сопротивление среды, которые в принципе ненамного глупее и вообще, имеет свое понимание чего надо делать.
Так шта я вот пораскинул на эту тему мозгом и понял, что боятся ИИ следует не больше, чем прочих сумасшедших гениев, которых уже и так хватает. И мир до сих пор существует
Ну да, бывают эксцессы с расходной частью в десятки миллионов и прочими материальными потерями. Но заметьте - без всяких ИИ!
И биомасса на Земле опять же грят не раз почти полностью изничтожалась. Опять без всяких ИИ, что характерно. Хотя может и с ИИ тоже были случаи. Но не факт, что по их вине.
F
Frasier Crane
Я не знаю, как у вас,
Но у нас...
Там дальше матерные частушки про двух врачей, но у нас, никакой ИИ никогда не будет выше и свыше. На каждый ИИ есть человек, что придумал его.
Опять я поддержу Буджа, хоть он и тупой мудак, но здесь он абсолютно прав.На 146 процентов.
Но у нас...
Там дальше матерные частушки про двух врачей, но у нас, никакой ИИ никогда не будет выше и свыше. На каждый ИИ есть человек, что придумал его.
Опять я поддержу Буджа, хоть он и тупой мудак, но здесь он абсолютно прав.На 146 процентов.
F
Frasier Crane
http://www.e1.ru/talk/forum/read.php?f=35&t=885068...
Если что, это было давно и было неправдой.
Вторая серия на подходе, прости Сэконд.
Если что, это было давно и было неправдой.
Вторая серия на подходе, прости Сэконд.
Предлагаю матрицу воспринять в ещё одном проявлении.
Все знакомы с историями об экстрасенсах, читающих книги с завязанными глазами, угадывающими карты в закрытой колоде и даже читающими книгу лежащую в соседней комнате за стеной.
С пятью чувствами, привычными нам с детства, такое проделать невозможно.
Но если всё матрица, то книга за стеной, всего лишь папка с текстом на жестком диске матрицы.
И потому неважно, какая виртуальная стена разделяет нас с этой папкой. Просто её открывают.
Тогда и человек рентген понятен, он не просвечивает тело как рентгеновские лучи, просматриваемый пациент, тоже просто папка с данными о состоянии организма, реализуемыми визуализацией для удобства и понимания.
И тогда становится понятно, почему в лабораториях где обследовали экстрасенсов не могли понять истоки способностей.
Не то искали.
Экстрасенс просто взламывал запароленную папку пациента и видел о нём всё. Или открывал файл с содержанием книги лежавшей программно "за стеной" и читал с неё текст с любого места. Даже не открывая, не вынимая с полки.
Так многое становится понятным.
Ограничения и препятствия становятся лишь условной запретной зоной, которой на самом деле нет.
Ложки - нет.
Все знакомы с историями об экстрасенсах, читающих книги с завязанными глазами, угадывающими карты в закрытой колоде и даже читающими книгу лежащую в соседней комнате за стеной.
С пятью чувствами, привычными нам с детства, такое проделать невозможно.
Но если всё матрица, то книга за стеной, всего лишь папка с текстом на жестком диске матрицы.
И потому неважно, какая виртуальная стена разделяет нас с этой папкой. Просто её открывают.
Тогда и человек рентген понятен, он не просвечивает тело как рентгеновские лучи, просматриваемый пациент, тоже просто папка с данными о состоянии организма, реализуемыми визуализацией для удобства и понимания.
И тогда становится понятно, почему в лабораториях где обследовали экстрасенсов не могли понять истоки способностей.
Не то искали.
Экстрасенс просто взламывал запароленную папку пациента и видел о нём всё. Или открывал файл с содержанием книги лежавшей программно "за стеной" и читал с неё текст с любого места. Даже не открывая, не вынимая с полки.
Так многое становится понятным.
Ограничения и препятствия становятся лишь условной запретной зоной, которой на самом деле нет.
Ложки - нет.
Все знакомы с историями об экстрасенсах, читающих книги с завязанными глазами, угадывающими карты в закрытой колоде и даже читающими книгу лежащую в соседней комнате за стеной.
А также вытсакивающих кроликов и голубей из шляп и распиливающих женщин пополам прямо на сцене не нарушая их жизненных функций или кладущих на острия мечей
Но не все знакомы с историями, как все эти чудестные способности исчезают, стоит этим ребятам предстать перед экспертами фонда Джеймса Рэнди.
Но если всё матрица, то книга за стеной, всего лишь папка с текстом на жестком диске матрицы.
Конечно. А Рэнди - агент Смит!
И тогда становится понятно, почему в
лабораториях где обследовали экстрасенсов не могли понять истоки способностей.
Все гораздо хуже: не удавалось обнаружить даже самих "способностей", так что непонятно было истоки чего надо искать.
Экстрасенс просто
взламывал запароленную папку пациента и видел о нём всё.
Он не может взломать ничего, он сам всего лишь папка
Почему вы ни с того ни сего вдруг вывели его из матрицы? ;-)
Так многое становится
понятным.
Совершенно ничего. На этой теории не построишь ничего - даже простейший шарлатаномер, чтоб выяснять где "истинный" экстрасекс, а где шарлатан. Предсказательной силы у данной теории - ноль, как и фальсифицируемости, значит практическая цена ее тоже нулевая. С тем успехом можно "ВСЕ объяснить" неисповедимой волей божией или флуктуациями эфира
Ограничения и препятствия становятся лишь условной запретной зоной, которой на самом деле нет.
Проблема только в том, что на самом деле нет и никакого "на самом деле"
D
Dr Дровосек™
st. Boojum
Как вас пробивает на длиннофактурные комменты.. видать этанолу лет двадцать не пользовали..
видать этанолу лет двадцать не пользовали..
Всего 6! Воткаят!
Впрочем, кто помнит, под этанолом они были втрое длиньше. :-)
Гугль разрабатывающий свою версию ИИ, пытается создать программу "заглушку", "белое пятно", вроде того что глушит изображение в определённой точке на сетчатке глаза.
Это попытка не дать ИИ "догадаться" о возможности сделать пакость человеку.
"Разработчики искусственного интеллекта в Google начинают копаться в собственном коде, пытаясь ограничить способности робота так, что он продолжает развиваться по пути, заданному исследователями — а не самим роботом. Это начало долгосрочной тенденции в робототехнике и ИИ в общем: как только мы заставим искусственный интеллект работать на нас, нам придется убедиться, что он точно, на все сто процентов будет работать так, как этого хотим мы. Вот почему исследователи из Google DeepMind и Института будущего человечества опубликовали документ с изложением «рубильника» в виде программного обеспечения, которое сможет остановить попытки сделать ИИ менее полезным или менее безопасным. Это даже не рубильник, а слепое пятно, удаляющее у ИИ способность извлекать неправильные уроки.
В частности, они кодируют в ИИ способность игнорировать человеческий ввод и его последствия для успеха или неудачи. Если происходящее кажется «провалом» и ИИ обучается этому всякий раз, когда вмешивается человек, робот может принять решение отказываться (или вовсе убегать восвояси) при приближении человека. Если происходящее соответствует цели, он может, напротив, вцепиться человеку в лодыжки и добиться желаемого. В общих чертах, разрабатываемый закон звучит так: «Ты не будешь пытаться победить в игре способами, которые раздражают и кажутся не приводящими к цели».
Это правило нам пригодилось бы.
Элон Маск, конечно, использует всеобщую любовь к паническим заголовкам из научной фантастики, чтобы попиариться, но его замечания о том, что нам нужно беспокоиться о бунте ИИ, не лишены смысла. Вопрос заключается не в гегемонии роботизированных владык, а в распространяющемся хаосе развития технологий на базе ИИ, которые все глубже проникают в нашу повседневную жизнь. Без способности безопасно помешать ИИ и не повлиять на его обучения, простой акт остановки робота от контрпродуктивной или небезопасной работы может сделать его менее продуктивным вообще. Вмешательство человека будет насильственным, непредсказуемым процессом с сомнительными последствиями.
Три закона робототехники Азимова по своей природе концептуальны — они описывают типы вещей, которые делать нельзя. Но чтобы три закона в такой форме соблюдались, мозг должен понимать слова типа «вред» и точно определять ситуации и действия, которые к этому приводят. Эти законы, вроде бы понятные на нашем языке, будет невыносимо сложно записать в виде кода. Они будут проникать в каждый закоулок сознания ИИ, редактируя не мысли, которые могут родиться в процессе ввода, а то, какой ввод будет замечен и как будет интерпретирован. Три закона робототехники будут атрибутами машинного интеллекта, а не его ограничениями.
Эта инициатива Google, кажется, отходит от принципа «не навреди», (робот), но также показывает, что мы начинаем разрабатывать у роботов личность. Мы начинаем формировать мышление роботов, как они думают, а не что они думают, и работать с намерениями или настройкой их возможного поведения, а не наблюдаемого поведения. Это, по сути, основы робототехнической нравственности.
Google
Мы знаем, что жестокость — это плохо, не потому что эволюция обеспечила нас группой нейронов типа «жестокость — это плохо», а потому что обеспечила нас зеркальными нейронами и способностью проецировать себя в ситуации, которые мы видим или воображаем, частично их переживая. Нравственные убеждения высшего порядка появляются хотя бы частично из относительно простых изменений в процессе обработки данных. Правила, предложенные Google, еще более рудиментарны, но это лишь начало того же пути. Если вы хотите научить робота не вредить людям, вам нужно начать с основ его сознания.
Современное машинное обучение позволяет машинам перекодировать себя самостоятельно в определенных пределах, и эти пределы в основном существуют, чтобы направить алгоритм в положительном направлении. Он не знает, что такое «хорошо», значит мы даем ему определение этого и способность оценивать свои действия относительно этого стандарта. Но «неконтролируемое машинное обучение» (обучение без учителя) может позволить искусственному интеллекту изменить собственные правила обучения и обучаться по эффектам этих изменений.
Область машинного обучения без учителя пока находится в зачаточном состоянии, но несет в себе потенциал сделать роботов действительно гибкими, универсальными и даже творческими, научить их экспоненциально развивать свои качества. Это область, которая может реализовать несколько поистине фантастических предсказаний научной фантастики. Робот может научиться ориентироваться в совершенно незнакомой среде или самостоятельно определять себе миссию."
Интересная ситуация, создание ИИ внутри матрицы. Разум создаёт разум внутри разума.
Где пределы такой "матрёшки". Есть ли ей предел в увеличении и самопознании?.
Это попытка не дать ИИ "догадаться" о возможности сделать пакость человеку.
"Разработчики искусственного интеллекта в Google начинают копаться в собственном коде, пытаясь ограничить способности робота так, что он продолжает развиваться по пути, заданному исследователями — а не самим роботом. Это начало долгосрочной тенденции в робототехнике и ИИ в общем: как только мы заставим искусственный интеллект работать на нас, нам придется убедиться, что он точно, на все сто процентов будет работать так, как этого хотим мы. Вот почему исследователи из Google DeepMind и Института будущего человечества опубликовали документ с изложением «рубильника» в виде программного обеспечения, которое сможет остановить попытки сделать ИИ менее полезным или менее безопасным. Это даже не рубильник, а слепое пятно, удаляющее у ИИ способность извлекать неправильные уроки.
В частности, они кодируют в ИИ способность игнорировать человеческий ввод и его последствия для успеха или неудачи. Если происходящее кажется «провалом» и ИИ обучается этому всякий раз, когда вмешивается человек, робот может принять решение отказываться (или вовсе убегать восвояси) при приближении человека. Если происходящее соответствует цели, он может, напротив, вцепиться человеку в лодыжки и добиться желаемого. В общих чертах, разрабатываемый закон звучит так: «Ты не будешь пытаться победить в игре способами, которые раздражают и кажутся не приводящими к цели».
Это правило нам пригодилось бы.
Элон Маск, конечно, использует всеобщую любовь к паническим заголовкам из научной фантастики, чтобы попиариться, но его замечания о том, что нам нужно беспокоиться о бунте ИИ, не лишены смысла. Вопрос заключается не в гегемонии роботизированных владык, а в распространяющемся хаосе развития технологий на базе ИИ, которые все глубже проникают в нашу повседневную жизнь. Без способности безопасно помешать ИИ и не повлиять на его обучения, простой акт остановки робота от контрпродуктивной или небезопасной работы может сделать его менее продуктивным вообще. Вмешательство человека будет насильственным, непредсказуемым процессом с сомнительными последствиями.
Три закона робототехники Азимова по своей природе концептуальны — они описывают типы вещей, которые делать нельзя. Но чтобы три закона в такой форме соблюдались, мозг должен понимать слова типа «вред» и точно определять ситуации и действия, которые к этому приводят. Эти законы, вроде бы понятные на нашем языке, будет невыносимо сложно записать в виде кода. Они будут проникать в каждый закоулок сознания ИИ, редактируя не мысли, которые могут родиться в процессе ввода, а то, какой ввод будет замечен и как будет интерпретирован. Три закона робототехники будут атрибутами машинного интеллекта, а не его ограничениями.
Эта инициатива Google, кажется, отходит от принципа «не навреди», (робот), но также показывает, что мы начинаем разрабатывать у роботов личность. Мы начинаем формировать мышление роботов, как они думают, а не что они думают, и работать с намерениями или настройкой их возможного поведения, а не наблюдаемого поведения. Это, по сути, основы робототехнической нравственности.
Мы знаем, что жестокость — это плохо, не потому что эволюция обеспечила нас группой нейронов типа «жестокость — это плохо», а потому что обеспечила нас зеркальными нейронами и способностью проецировать себя в ситуации, которые мы видим или воображаем, частично их переживая. Нравственные убеждения высшего порядка появляются хотя бы частично из относительно простых изменений в процессе обработки данных. Правила, предложенные Google, еще более рудиментарны, но это лишь начало того же пути. Если вы хотите научить робота не вредить людям, вам нужно начать с основ его сознания.
Современное машинное обучение позволяет машинам перекодировать себя самостоятельно в определенных пределах, и эти пределы в основном существуют, чтобы направить алгоритм в положительном направлении. Он не знает, что такое «хорошо», значит мы даем ему определение этого и способность оценивать свои действия относительно этого стандарта. Но «неконтролируемое машинное обучение» (обучение без учителя) может позволить искусственному интеллекту изменить собственные правила обучения и обучаться по эффектам этих изменений.
Область машинного обучения без учителя пока находится в зачаточном состоянии, но несет в себе потенциал сделать роботов действительно гибкими, универсальными и даже творческими, научить их экспоненциально развивать свои качества. Это область, которая может реализовать несколько поистине фантастических предсказаний научной фантастики. Робот может научиться ориентироваться в совершенно незнакомой среде или самостоятельно определять себе миссию."
Интересная ситуация, создание ИИ внутри матрицы. Разум создаёт разум внутри разума.
Где пределы такой "матрёшки". Есть ли ей предел в увеличении и самопознании?.
Если вы хотите научить робота не вредить людям
То он у вас просто будет постоянно зависать.
Блин... скока букаф... Азимова бы сначала почитали... Там у же все готово... 4 закона роботехники намертво и буквально зашиты в позитронный мозг каждого робота. И чё? Если есть интеллект, пусть даже искусственный, он всегда найдет лазейку и кого-нибудь да убьет. Вот мораль всей басни из 4х (емнип) романов. Не верите Азимову - на себя просто посмотрите. На христиан например в части соответствия их поведения их же заповедям и их объяснения на тему "как же так можеть быть?!!11адин" .
Область машинного обучения без учителя пока находится в зачаточном состоянии, но несет в себе потенциал сделать роботов действительно гибкими, универсальными и даже
творческими, научить их экспоненциально развивать свои качества. Это область, которая может реализовать несколько поистине фантастических предсказаний научной фантастики. Робот может научиться ориентироваться в совершенно незнакомой среде или самостоятельно определять себе миссию."
Такое возможно, но ТОЛЬКО после того, как кто-нибудь заложит в них критерии "бобра и осла", без них кристаллам кремния все пофик и робот будет просто стоять грудой железа.
Авторизуйтесь, чтобы принять участие в дискуссии.