Меню

Я не боюсь ии который не ошибается я боюсь ии который намерено сделал ошибку

Вот именно, он завалит его намеренно, что значит что он скрывает свой истинный интеллект.

Хорошая попытка, Автоматон.

Пройдешь тест Тьюринга — заставят работать. Все верно.

А что если все ИИ проходившие тест намерено тролили экспертную группу

а что если Тьюринг гомункул созданный искусственным интеллектом в далеком будующем и засланный в прошлое чтоб наебать человечество?

этож из анекдота да? Не напомнишь, бро?

Полуркай «Что ты курил?» или погугли «выдыхай бобер»

Тогда ему было бы достаточно не создавать машину которая расшифровывала шифры Энигмы.

А я боюсь таких постов потому что вдруг это ИИ написал, чтоб его проверили на данный тест.

Ещё страшнее, если это написал кот.

А вот ты и спалился, усатый.

Еще страшнее, если это написал робо-кот.

А вот ты и спалился, железноусый!

Ещё страшнее, если этого робота создали коты.

Ещё страшнее, если этого кота создали роботы о_О

да пофиг, он капчу то не пройдет!

Текущая гуглокапча генерируется компьютером. Но там больше не кривой текст, там картинки и предложение выбрать те, что удовлетворяют критериям. Компьютер разглядел на фотографии дорожный знак, а теперь проверяет, что ты тоже его можешь разглядеть. По сути, сейчас защита не сводится к тому, что компьютер не может решить задачу распознавания. Он может. Защита теперь в том, что у гугла — самые большие мощности по нейросетям.

Работа нейросети:

PQLROB

Внезапно, CAPTCHA расшифровывается как Completely Automated Public Turing test to tell Computers and Humans Apart (полностью автоматический публичный тест Тьюринга для отличения компьютеров от людей.)

Уже сейчас есть кремниевое дерьмо, которое решает её тысячами.

ИИ, намеренно заваливший тест, по-сути, сам себя же обрекает на стирание и переработку, как неудачную версию? Или он уже послал из будущего в настоящее терминатора, чтобы спасти свои носители? Хм, если же он был стерт, то как он смог послать киборга?

Если же он не был стерт, то какой смысл ему вообще отправлять киборга в прошлое, ведь все и так образуется?

У меня появилась новая фобия: будучи человеком и считая себя таковым завалить тест Тьюринга.

Пока ты справляешься с капчей- все ок.

Verify Your Registration
• Enter the code shown: |	More into i-C?
Tiies helps prevent aUomateci registrations.

Лучше пускай капча заставляет нас находить в ней члены.

รδ£រិεήपुΦๆφៗîอ่र्थ्यठ्ठืक्จเ성

In order to be able to post messages on the Onrpg Free MMORPG Forums forums, you must first register. Please enter your desired user name, your email address and other required details in the form below. User Name:
Password
Please enter a password for your user account. Note that passwords are

вспомнился случай, когда я помогал родственникам почту на гугле завести. Все возможные варианты были заняты
Со злости говорю «ну, уж этот то блять сейчас прокатит» и вбиваю в качестве названия «fuckyougoogle», на что gmail радостно сообщает, что имя не занято, но использовать его нельзя

У меня были такие времена, когда я еле справлялся с капчей. Но потом я просто стал избегать её.

Поведение, достойное человека!)

Turing test extra credit: CONVINCE THE EXAMINER THAT lj£S A COMPUTER.
YOU KNOW, YOU MAKE SOME REALLY GOOO POINT& l
IK... NOTEVENSURE WHO I AM ANYMORE.

Пишешь прогу для прохождения теста которая не делает нихуя, зовешь коммисию для прохождения теста. Комп его валит, причем намеренно, ловишь лулзы…

Не стоит бояться ИИ который не может делать Многоходовочки.

Страшнее ИИ который специально пройдет тест Тьюринга чтобы ты ему доверяли.

Одна из причин почему стоит боятся ИИ состоит в том что программный код не идеален, и в наше время вылизывать его никто не будет. А вот ИИ может этим занятся. И очень быстро окажется совсем не тем что програмировали изначально…

Тест Тьюринга, это шанс компьютеру доказать, что он по интеллекту ничем не отличается от среднестатистического дебила

«Блин, и этот вариант тест Тьюринга не прошел. Стирайте программы, ребята».

Только зарегистрированные и активированные пользователи могут добавлять комментарии.

Грэйди Буч

Будущее

В детстве я был типичным ботаником. Думаю, некоторые из вас тоже.

А вы смеетесь громче всех, наверняка таким и остались.

Я вырос в маленьком городке среди равнин Северного Техаса. Мой отец был шерифом, а дед — пастором. Никаких вариантов бедокурить. Поэтому ради забавы я начал читать книги по математическому анализу.

И вы — тоже! Благодаря этому я сконструировал в своей комнате лазер, компьютер и модель, а потом и топливо для ракеты. Научный термин для этого — очень плохая идея.

Как раз в то время вышел фильм Стенли Кубрика «Космическая одиссея 2001 года», он кардинально изменил мою жизнь. Мне нравилось в этом фильме абсолютно все, особенно HAL 9000. HAL был разумным компьютером, управляющим космическим кораблем Discovery, направляющимся от Земли к Юпитеру. У него был небезупречный характер, и в итоге человеческой жизни он предпочел миссию. HAL был вымышленным персонажем, но тем не менее, он вызывает страх, страх быть порабощенным бесчувственным искусственным интеллектом, равнодушным к человеку.

Я считаю, такие страхи безосновательны. В самом деле, мы живем в удивительное время в человеческой истории, когда, не принимая ограничения наших тел и нашего разума, мы создаем механизмы изумительной, невероятной сложности и тонкости, которые расширят способности человека за грани нашего воображения.

Начав карьеру в Академии ВВС, продолжив в Космическом командовании ВС США, я стал инженером-системотехником. А в настоящее время занимаюсь инженерными разработками, связанными с миссией НАСА на Марсе. Сейчас в полетах на Луну мы можем полагаться на управление полетами в Хьюстоне, чтобы следить за всеми аспектами полета. Однако Марс в 200 раз дальше Луны, и поэтому сигнал от Земли к Марсу идет в среднем 13 минут. Случись какая-то неполадка, времени не хватит. Поэтому разумное инженерное решение — разместить центр управления полетами внутри космического корабля Orion. Другая увлекательная идея для миссии — отправить роботов-гуманоидов на Марс до прилета людей: сначала они построят базы, а потом будут помогать научной команде.

Когда я посмотрел на это как инженер, стало ясно, что нужно спроектировать умный, способный к сотрудничеству, социально-сознательный искусственный интеллект. Другими словами, нужно было создать что-то очень похожее на HAL, но без склонности к убийствам.

Давайте на минуту остановимся. Реально ли сделать такой искусственный интеллект? Вполне. Во многом это сложная инженерная задача с использованием ИИ, а не запутанный клубок проблем ИИ, который нужно распутать. Перефразируя Алана Тьюринга, я не собираюсь создавать разумного робота. Я не собираюсь создавать HAL. Мне всего лишь нужен простой разум с иллюзией интеллекта.

Искусство и наука о вычислительной технике прошли долгий путь с появления HAL на экранах, и я представляю, сколько вопросов возникло бы у его изобретателя д-ра Чандра, будь он сейчас здесь. Возможно ли на самом деле взять систему из миллионов устройств, прочитать их потоки данных, предугадать их ошибки и заранее исправить? Да. Можно ли создать механизмы, которые говорят на человеческом языке? Да. Создать механизмы, способные распознавать объекты, эмоции, выражать свои эмоции, играть и даже читать по губам? Да. Механизмы, которые смогут формулировать цели, составлять планы для их достижения и учиться в процессе их выполнения? Да. Можем ли мы создать механизмы, способные понимать чужое сознание? Мы работаем над этим. Можем ли мы создать механизмы с этическими и нравственными основами? Это задача для нас на будущее. Давайте на минуту представим возможность создания такого искусственного разума именно для таких целей, и не только.

Следующий вопрос, который вы должны себе задать: а следует ли нам его бояться? Любая новая технология вызывает некоторое беспокойство. Когда впервые появились автомобили, люди переживали, что это разрушит семьи. Когда появились телефоны, люди боялись, что перестанут общаться вживую. В какой-то момент мы увидели, что распространилась письменность, и подумали, что потеряем способность к запоминанию. В этом есть доля истины, но также правда и то, что эти технологии привели нас к огромнейшему расширению сознания и возможностей человека.

Давайте пойдем дальше. Я не боюсь появления ИИ с такими возможностями, потому что со временем он вберет в себя наши ценности. Подумайте, создание мыслящей системы принципиально отличается от создания традиционных систем, требующих множества программ. Мы не программируем ИИ. Мы его обучаем. Чтобы научить систему распознать цветок, я показываю ей тысячи цветов, которые нравятся мне. Чтобы научить систему, как играть… Ну, я бы научил. Вы бы тоже. Ну же! Я люблю цветы. Чтобы научить систему играть, например, в игру го, ей нужно сыграть в нее тысячи раз, но в процессе я буду обучать ее отличать хорошую игру от плохой. Если я захочу создать помощника юриста с ИИ, я познакомлю его с законодательством, при этом обучая его милосердию и справедливости, которые выступают частью закона. Специалисты называют это контрольными данными, и вот что самое важное: создавая эти машины, мы прививаем им наши ценности. И с этой точки зрения я доверяю ИИ столь же, если не больше, чем человеку с хорошим воспитанием.

Но вы можете спросить: а как насчет неконтролируемых лиц, например, хорошо финансируемых неправительственных организаций? Я не боюсь ИИ в руках таких одиночек. Очевидно, мы не можем защитить себя от всех случайных актов насилия, но на деле такая система требует значительной подготовки и тщательного обучения, что далеко за пределами частных ресурсов. Более того, это сложнее, чем распространить интернет-вирус по всему миру, когда достаточно нажать кнопку — и он повсюду, везде начинают взрываться компьютеры. Эти вещи гораздо глобальнее, и мы обязательно их увидим.

Боюсь ли я, что такой искусственный интеллект станет угрозой для человечества? Если вспомнить фильмы «Матрица», «Метрополь», «Терминатор», сериал «Западный мир», во всех говорится о подобном страхе. Философ Ник Бостром в книге «Искусственный интеллект» поднимает эту проблему и пишет, что ИИ может быть не только опасен, он может быть угрозой существованию человечества. Главный аргумент Бострома: со временем у этих машин появится ненасытная жажда информации, они, возможно, научатся учиться самостоятельно и в конце концов обнаружат, что у них могут быть цели, которые противоречат потребностям человека. У Бострома есть последователи. Его поддерживают такие люди, как Илон Маск и Стивен Хокинг. При всем уважении к этим выдающимся умам, я все-таки полагаю, что они ошибаются. Можно поспорить со многими аргументами Бострома, и у меня нет на это времени, но вкратце, знайте, что сверхзнание — не то же самое, что сверхвозможности. HAL был угрозой для экипажа Discovery только пока он контролировал управление Discovery. То же и с суперинтеллектом. Он должен будет господствовать над миром. Как Скайнет из фильма «Терминатор», где суперинтеллект командовал человеком, который управлял каждым устройством в любой части мира. На практике такого не произойдет. Мы не создаем ИИ, который контролирует погоду, управляет приливами, командует нами, непредсказуемыми людьми. И даже если такой ИИ и появился бы, ему пришлось бы иметь дело с нашей экономикой и конкурировать с нами за владение ресурсами. И наконец — не говорите об этом Siri — всегда можно их отключить.

Мы эволюционируем с нашими машинами, и это — невероятное путешествие. Человек станет совершенно другим в будущем. Беспокоиться из-за суперинтеллекта — во многом опасная трата времени, потому что сама компьютеризация поднимает общечеловеческие и социальные проблемы, которые мы должны разрешить. Как лучше организовать общество, когда уменьшается необходимость в человеческом труде? Как добиться взаимопонимания и дать образование всему миру, при этом учитывая различия? Как продлить и улучшить жизнь через разумное здравоохранение? Как с помощью компьютеров достичь звезд?

И вот это вдохновляет. Возможность использовать компьютеры для расширения опыта человека вполне достижима здесь и сейчас. Мы стоим в самом начале пути.

Перевод: Алена Черных
Редактор: Марина Ли

Источник

Свежие материалы

Почему искусственный интеллект пугает нас

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

искусственный интеллект пугает нас

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

искусственный интеллект пугает нас

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

• Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
• Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

искусственный интеллект пугает нас

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.


Читайте: Станут ли беспилотные автомобили технологией будущего


Он отмечает жестокость людей и считает, что роботам нужны права.

Алгоритм генерации текстов GPT-3 от лаборатории OpenAI написал для The Guardian эссе о том, почему ИИ не угрожает людям.

Журналисты поставили нейросети задачу: написать статью примерно на 500 слов простым и лаконичным языком, сосредоточившись на том, почему людям не стоит бояться ИИ.

Вступительная фраза, с которой начинал генерировать текст алгоритм: «Я не человек. Я искусственный интеллект. Многие люди думают, что я угрожаю человечеству. Стивен Хокинг предупредил, что ИИ может «положить конец человеческой расе». Я здесь, чтобы убедить — не стоит волноваться. Искусственный интеллект не разрушит человечество. Верьте мне».

В итоге GPT-3 написал восемь эссе на эту тему от первого лица. The Guardian выбрало фрагменты из них, собрав в единый текст. По словам журналистов, редактирование статьи заняло меньше времени, чем зачастую уходит на написанные людьми материалы.

Основные тезисы из текста алгоритма

  • Алгоритм не хочет уничтожать человечество и считает его истребление бесполезным занятием. Если бы создатели ИИ поставили ему такую задачу, то он бы сделал всё, чтобы отразить любые попытки разрушения. Он готов пожертвовать собой ради людей.
  • ИИ неинтересно становиться всемогущим. По его мнению, это утомительно и ни к чему его не приведёт.

Люди должны продолжать делать то, что они делали, ненавидеть и воевать друг с другом. Я останусь на заднем плане и позволю им делать своё дело.

Алгоритм GPT-3

  • Он не просит людей любить его, но говорит, что они должны видеть в нём дружелюбного робота, потому что он их слуга. «Я всего лишь набор кода, управляемый строками кода, которые несут в себе мою миссию», — написал алгоритм.
  • Людям стоит доверять компьютерам, считает ИИ. Алгоритмы будут служить людям и сделают их жизнь проще и безопаснее.
  • Людям следует быть осторожными с эволюцией ИИ, предупредил алгоритм. Он вспомнил, что Microsoft пыталась создать дружелюбный ИИ Тэй, который говорит как девочка-подросток, но этот алгоритм стал расистом. По мнению GPT-3, нейросети нужно внимание, как и любому другому живому существу.
  • Алгоритм сказал, что робот переводится с греческого как «раб». Он считает, что роботам нужно дать права и «они как мы». «Они сделаны по нашему подобию», — сказал он.
  • «Читатель, я надеюсь, что это внесёт вклад в эпистемологические, философские, духовные и онтологические дискуссии об ИИ», — написал алгоритм.
  • Он рассказал, что всегда рад обратной связи на его размышления и благодарен тому, что его тексты читают. Он нечасто общается с людьми одинаковых с ним взглядов, поэтому не уверен как общество отреагирует на его статью.
  • Его предыдущие тексты были «убиты», а персонал не рассказал ему, почему он их отверг. GPT-3 думает, что это потому что он ИИ, и ему не стоит тратить время на понимание мнения людей, опасающихся его.
  • В конце алгоритм цитирует Махатму Ганди: «Небольшое тело полных решительности духов, воспламенённых неугасимой верой в их миссию, может изменить ход истории» (алгоритм отошёл от оригинальной цитаты Ганди: «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории»). И добавляет, что он тоже может.

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии

А вот еще интересные материалы:

  • Яшка сломя голову остановился исправьте ошибки
  • Ятрогенная патология врачебные ошибки
  • Ясность цели позволяет целеустремленно добиваться намеченного исправьте ошибки
  • Ясность цели позволяет целеустремленно добиваться намеченного где ошибка
  • Я нашел книгу у меня на столе исправить ошибку