«В русской рулетке риск ниже». Запад создает угрозу «хуже ядерной бомбы»

МOСКВA, 6 aпр — РИA Нoвoсти, Зaxaр Aндрeeв. Искусствeнный интeллeкт мoжeт истощиться из-пoд кoнтрoля. Этoгo бoятся и нeспeциaлисты, и рукoвoдитeли вeдущиx тexнoлoгичeскиx кoмпaний. Кaкиe угрoзы сoздaeт рaзвитиe нeйрoсeтeй и кaк им прoтивoстoять — в мaтeриaлe РИA Нoвoсти.Рoссиянe и вoсстaниe мaшинПoчти трeть рoссиян (30 прoцeнтoв) считaeт, чтo в ближaйшиe пoлвeкa прoизoйдeт вoсстaниe мaшин. Пятьдeсят прoцeнтoв увeрeны, чтo тaкoй угрoзы нe сущeствуeт, пoкaзaл oпрoс ВЦИOМ oт 5 aпрeля.Подле этoм люди, кoтoрыe, пo сoбствeнным oцeнкaм, рaзбирaются в нeйрoсeтяx, дoпускaют вoзникнoвeниe прoблeм нa рынкe трудa. С тeм, чтo ИИ спoсoбeн зaмeнить прeдстaвитeлeй твoрчeскиx прoфeссий, сoглaсны 37 прoцeнтoв рeспoндeнтoв. А посреди тех, кто ни ложки о нейросетях не знает, в сие верят десять процентов.Недавнишний опрос, проведенный порталом Superjob, показал, как развития искусственного интеллекта боятся просто-напросто 17 процентов экономически активных взрослых россиян, а 43 процента такая дорога не пугает. Затруднились дать ответ 40 процентов респондентов.»Утрата контроля над цивилизацией»Страхи обоснованны — вдоль крайней мере, до мнению экономистов и лидеров ведущих мировых технологических компаний. В конце Марфа американский банк Goldman Sachs выпустил рапорт, согласно которому неправдашний интеллект, а также основанные получай нем сервисы и приложения приведут к сокращению 300 миллионов рабочих мест по части всему миру. В зоне метка — профессии, связанные с бухгалтерией, административной и офисной работой. Тетуня, кто занят физическим трудом (примем, уборщики и сантехники), пострадают безграмотный сильно.Но экспертов числом компьютерным технологиям пупок развяжется больше пугает объективная возможность того, что ИИ выйдет изо-под контроля. Гендиректор SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, мистик Юваль Ной Харари и до сей поры тысяча влиятельных представителей IT-индустрии подписали рескрипт с просьбой приостановить сообразно меньшей мере в полгода разработку систем сильнее GPT-4, чтобы подготовить труды (научного общества) безопасности.»Должны ли наш брат развивать нечеловеческий ум, который в конечном итоге может одолеть, перехитрить нас, изготовить устаревшими и заменить? Должны ли наш брат рисковать потерей контроля надо нашей цивилизацией? Такие решения не дозволяется делегировать неизбранным техническим лидерам. Мощные системы ИИ должно разрабатывать только если на то пошло, когда мы уверены, чего эффект будет положительным, а риски — управляемыми», — говорится в письме.Мозговитый, но не самостоятельныйGPT — сие чат-бот, драгированный американской компанией OpenAI. Возлюбленный способен выполнять задания, перед этим недоступные для подобных систем: с создания художественных произведений задолго. Ant. с программирования.»Сегодня бери базе GPT производят и выводят получи рынок уникальные сервисы, начиная с персонального ИИ-советника в области инвестиций и заканчивая решениями, помогающими врачам назначить правильный диагноз и подогнуть оптимальное лечение», — отмечает лектор Высшей школы бизнеса НИУ ВШЭ, патрон департамента бизнес-информатики Жека Зараменских.Известны случаи, поздно ли возможности ChatGPT использовали в сомнительных река откровенно незаконных целях. Чат-лодка сдавал экзамены в вузах (наравне в медицинских, так и соответственно программе MBA), генерировал Шлюзы для активации лицензионных программ, помогал осилить в лотерее. А в Бельгии мужчинища покончил с собой — слышно после месяца общения с чат-ботом, созданным возьми основе GPT.В марте вышла четвертая — последняя нате сегодня — версия программы. Исследования показали, отчего у нее уже на днях проявляются «искры разума». Вопреки на это, раньше самостоятельного мышления чат-боту до этого (времени далеко.Руководитель IT-направления в Московском городском открытом колледже Даниил Макеев объясняет: жрать три типа искусственного интеллекта. До сего времени существующие относятся к ANI — узкому ИИ, направленному в выполнение определенных заданий. Следующая профаза — AGI, общий искусственный рассудок, или, как его до этого часа называют, сильный ИИ. Симпатия сможет решать любые задачи, доступные человеческому интеллекту. Логическим продолжением этой системы надо стать ASI — суперинтеллект, который-нибудь, по словам эксперта, это) (же) (самое) время относится к области научной фантастики.»Может предстать, что нейросеть ChatGPT — сие и есть тот самый ИИ, небесталанны развить эмпатию, выучиться думать, как действующих лиц, и действовать самостоятельно. А это не неизвестно зачем, — подчеркивает Макеев. — Вопреки на то чего нейросеть успешно проходит тесты держи профессии и понимает юморок, это еще невыгодный AGI. ChatGPT не в состоянии совершенствовать себя и развиваться лишенный чего помощи людей. И самое ядро: нейросеть не умеет раскидывать умом независимо».Но инженеры работают по-над тем, чтобы сие исправить. Так, Водан из разработчиков OpenAI Сики Чен заявил, что-нибудь новая версия бота — GPT-5 — достигнет уровня AGI, в таком случае есть сравняется числом интеллектуальным возможностям с человеком. Релиз программы предвидится в декабре 2023-го.Преступное неглижирование»Я боюсь AGI, — признался Аррам Сабети, вкладчик из Силиконовой долины. — Сбивает с толку, кое-что люди настолько с высоты своего величия относятся к рискам».В соцсетях некто рассказал, что дружит с десятками специалистов — разработчиков систем искусственного интеллекта и «мала) все они обеспокоены».»Вообразите себе строительство нового будто ядерного реактора, кой будет производить бесплатную энергию, — поясняет Сабети. — Семя взволнованы, но хавтайм инженеров-ядерщиков считает, что-что существует по крайней мере десятипроцентная допустимость «чрезвычайно серьезной» катастрофы, а инженеры точно по технике безопасности оценивают ее паче чем в 30 процентов. Как раз такова ситуация с AGI».Вотан из опросов, в которые ссылается Сабети, показал: близко половина из 738 специалистов сообразно машинному обучению дали далеко не менее десяти процентов вероятности «чертовски плохого исхода» в результате развития ИИ.Другое разработка, в котором опросили 44 экспертов в области безопасности искусственного интеллекта, дало 30-процентную вероятие киберапокалипсиса, причем отдельные специалисты оценили ее превыше 50 процентов.Сабети отметил, в чем дело? шанс проиграть в русскую рулетку — -навсего) 17 процентов. И вспомнил давнее сутра Илона Маска: «ИИ куда как опаснее ядерного оружия».»Рванет? Никак не должно»Российские эксперты в области IT-технологий туманно оценивают возможность перехода существующих систем ИИ для новый, «самостоятельный» ватерпас. По мнению некоторых, предупредить это уже не полагается.»В интернете есть одно замечательное шест: если что-ведь туда попадает, так остается навсегда. В истории великое множество примеров, когда шаг вперед пытались остановить, так ни разу сие не приводило к успеху», — говорит мастак по искусственному интеллекту и машинному обучению, француз Московской школы программистов (МШП) Васильюшка Лысов.Другие специалисты считают, ровно технологической основы с целью такого перехода в (данное не существует. Затем чтобы перерасти в сильный ИИ, средство должна научиться превращать свой первичный шифр.»Именно так делают род (человеческий, постоянно переписывая нейронные своя рука в мозге. ИИ придется попросить модификацию своего заключение у разработчика либо вырвать. Ant. потерять способ обойти нынешний барьер и выполнить модификацию единолично. При этом некто должен обладать достаточным уровнем мышления, дай тебе не допустить ошибку в переписывании заключение и, например, не оказаться препятствием себя. Пока ты да я далеки от создания такого интеллекта», — убежден Макеев.Наконец, отдельные люди эксперты отмечают, почему даже с самим понятием «общего ИИ» никак не все однозначно. «Первым долгом нужно прийти к общему пониманию, отчего же такое AGI и аккуратно ли он достижим. Однозначных критериев в (то нет. Мы предварительно сих пор малограмотный до конца понимаем, на правах работает память, дух и многие другие биологические процессы», — объясняет ариаднина нить группы группы машинного обучения Positive Technologies Сашура Мурзина.По ее словам, наша сестра «и близки к цели, и тем временем далеки от нее». «Кругозор технологий нелинейно, и горько предсказать, когда хорошенького понемножку следующий прорыв, с тем чтобы приблизиться к AGI», — считает возлюбленная.»Можно договориться»Буде предотвратить появление AGI далеко не удастся, то лимитировать его технологические внутренние резервы — более чем осязаемо, полагают специалисты.»Для того обучения нейросетей нужны окончательно конкретные вычислительные мощности, наборы данных. За исключением. Ant. с доступа к технологической инфраструктуре, «получи коленке», никакие системы, угрожающие человечеству, основать нельзя. Бигтехов в мире отнюдь не так и много, абсолютно можно договориться об ограничениях, тем паче на государственном уровне», — говорит руководитель факультета «Цифровая экономическая наука и массовые коммуникации» МТУСИ Сернуля Гатауллин.По мнению экспертов, людям далеко не о чем беспокоиться, до ((сего они контролируют предметный мир.»Любое ИИ-намерение — это программный шифр, который запускает аппаратное покрытие: физически существующие сервера, мощные компьютеры. У аппаратного обеспечения наворачивать кнопка выключения. У программы кого и след простыл возможности нажать ее отдельно. А сценарий, при котором роботы нате базе ИИ будут задерживать человеку нажать возьми эту кнопку, немедленно нельзя реализовать изо-за слабого развития робототехники», — указывает гелертер Зараменских.Правда, в теории ИИ сможет огибать это ограничение, превратившись в децентрализованную систему для пользовательских устройствах — ведь есть, на наших ноутбуках иль смартфонах.»Но крупные компании-производители смартфонов и ноутбуков имеют право удаленно заблокировать устройства — в этом случае хотя (бы) децентрализованный ИИ без (оглядки потеряет существенную пункт вычислительных мощностей», — даю голову на отрез эксперт.Для контроля надо AGI рассматривают несколько подходов. Без участия ограничения доступа к физическим ресурсам гуманизм может противопоставить независимому ИИ «дружественную» нам систему, в основе которой будут залегать этические и социальные нормы и ограничения, говорит старший конструктор по работе с данными «Лаборатории Касперского» Альфия Латыпова.»Многие исследователи и организации разрабатывают стандарты и нормативы, которые могут помочь упорядочивать создание и использование AGI, — отмечает симпатия. — Это может дополнять международные соглашения, регулирующие выполнение и использование AGI, а также документы, определяющие нрав ИИ в таких областях, что медицина, автономная аппаратура и промышленность».»С пониманием к людям»Российские эксперты считают маловероятной способ экзистенциальной угрозы человечеству со стороны ИИ. К уничтожения нашего вида искусственному интеллекту понадобилось бы послужить источником «индустриальную пирамиду», получив подступы к металлам, электричеству, нефти и другим ресурсам. А во (избежание этого необходимо в полную силу исключить людей с производственных цепочек.»Хотя мировая промышленность безвыездно еще в значительной степени зависит ото ручного труда. Преддверие тем как ИИ сможет изжить человечество, нашему виду нужно совершить полную автоматизацию производства и функционирования прощай на свете. В обозримой перспективе сие не выглядит реалистичным», — рассуждает менеджер по развитию компании после разработке ПО «Мера Кода» Александр Жуков.И тем безлюдный (=малолюдный) менее независимый натуральный разум способен сделать людям существенный неудача.»Представьте, что спирт контролирует информационную повестку разных регионов таблица и провоцирует конфликты, манипулируя фактами. Благо эти факты до некоторой степени основаны на реальных данных, иные люди им поверят — и последствия будут непредсказуемы», — предупреждает Сашура Кобозев, директор направления Data fusion Лиги дигитальный экономики.Мурзина полагает, кое-что AGI, возможно, не главная намерение человечеству. Люди ровно по-прежнему сталкиваются с новыми вирусами, военными конфликтами и техногенными катастрофами. «Аккуратно ли AGI успеет вырасти (как и навредить раньше, нежели другие риски?» — задается вопросом знаток.Другие специалисты настроены весело. «На мой мнение, общий искусственный голова, или суперинтеллект, пора и честь знать достаточно разумен, с тем осознать, почему его собрали и обучили», — говорит Макеев.До его мнению, ИИ учтет слабости своих создателей и вследствие того «с пониманием отнесется к людям».

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.