19 ноября, 11:00

Chipmakers bet on the ‘big bang’ of artificial intelligence

Broadcom’s $130bn bid for Qualcomm reflects semiconductor companies’ desire to depend less on smartphones and vie for a foothold in AI

19 ноября, 09:42

Насколько реальны сценарии самоуничтожения человечества

Известный британский физик-теоретик и космолог Стивен Хокинг начиная с 2001 года регулярно формулирует возможные сценарии самоуничтожения человечества. Ввиду исключительной серьезности этих предостережений приведем главные утверждения, сформулированные в выступлениях и статьях великого физика нашего времени.

18 ноября, 20:53

Dan Hannan Destroys The Growing Support For 'Socialism' In 100 Seconds

  • 0

How is it that 100 years after The Bolshevik Revolution there are still people saying the idea of socialism wasn't so bad? British MEP Daniel Hannan exposes the ignorance of this line of thinking... in 100 seconds. How is it that 100 years after #BolshevikRevolution there are still people saying the idea of #socialism wasn't so bad? asks @DanielJHannan pic.twitter.com/6mNZFkarF0 — ECR Group (@ecrgroup) November 17, 2017 Still... what are historical facts worth when you have virtue to signal!?

18 ноября, 20:05

Профессор призывает к запрету дронов-убийц и автономного оружия

Профессор и специалист в области искусственного интеллекта Стюарт Рассел, совместно с Калифорнийским университетом, выпустили видео, с целью обратить внимание на проблему автономных дронов и установить запрет на автономное оружие. «Видео показывает результаты развития технологий, которые у нас уже есть. Потенциал использования искусственного интеллекта в интересах человечества огромен, даже в области обороны. Но позволить машинам убивать людей — значит поставить под угрозу нашу безопасность и свободу. С этим согласны тысячи моих коллег-исследователей. У нас есть возможность предотвратить то будущее, которое вы только что видели, но окно возможностей закрывается быстро», — предупреждает профессор. Поддержать нас можно перейдя по ссылке: http://infowars.su/donate.php Мы Вконтакте: https://vk.com/iwars

18 ноября, 17:45

Robotics, AI and ethics: When algorithms discriminate - Talk to Al Jazeera

When algorithms discriminate: Robotics, AI and ethics - Talk to Al Jazeera We live in an age of rapid technological advances where artificial intelligence (AI) is a reality, not a science fiction fantasy. Every day we rely on algorithms to communicate, do our banking online, book a holiday - even introduce us to potential partners. Driverless cars and robots may be the headline makers, but AI is being used for everything from diagnosing illnesses to helping police predict crime hot spots. As machines become more advanced, how does society keep pace when deciding the ethics and regulations governing technology? Al Jazeera talks to Stephen Roberts, professor of Machine Learning at the University of Oxford, United Kingdom, on the role machine learning plays in our lives today - and in the future. - Subscribe to our channel: http://aje.io/AJSubscribe - Follow us on Twitter: https://twitter.com/AJEnglish - Find us on Facebook: https://www.facebook.com/aljazeera - Check our website: http://www.aljazeera.com/

18 ноября, 17:15

When algorithms discriminate: Robotics, AI and ethics

Stephen Roberts discusses the threats and promises of artificial intelligence and machine learning.

18 ноября, 15:16

Boston Dynamics научила своего робота прыгать и делать сальто назад

Пионер в создании механических роботов компания Boston Dynamics выпустила видео, на котором продемонстрировала новые возможности модели Atlas

18 ноября, 11:42

Бомба на флэшке

Компьютерные напасти парализуют работу многих компаний, порой охватывают целые страны. В СМИ называют это эпидемиями. На деле под общим названием скрывается множество вредоносных программ. Самые распространенные типы: вирусы, черви, трояны, боты, бэкдоры, шифровальщики, программы-шпионы и рекламное ПО. Одни способны лишь слегка нервировать пользователя, другие крадут конфиденциальную информацию, деньги, уничтожают данные, повреждают или разрушают системы и оборудование. Компьютерный вирус – разновидность вредоносного ПО, которое способно размножаться, создавая копии самого себя, а также внедряться в коды других программ, в разделы системной памяти, загрузочные секторы. Обычные симптомы – нарушение функционирования программ, блокировка доступа пользователей, уничтоженные файлы, нерабочее состояние различных компонентов компьютеров. Черви по функционалу похожи на вирусы, но в отличие от них являются автономными, не требуют программы-хозяина или помощи человека, чтобы размножаться. Это весьма опасный класс вредоносного ПО, поскольку для их распространения и заражения новых компьютеров необязателен запуск пользователем файлов-носителей. Червь имеет возможность распространять свои копии по локальной сети, по электронной почте и т. п.

18 ноября, 11:00

Вести. Эфир от 18 ноября 2017 года (11:00)

270 ДТП, оформлено 90. Прокуратура проверит работу мэрии и ГИБДД после транспортного коллапса во Владивостоке. Они просят называть себя русскими немцами. На Ставрополье встретили переселенцев из Германии. Где и как они теперь будут жить? Больше всего жюри впечатлили робот-лесопатолог и футболисты с искусственным интеллектом. В Петербурге поздравляют победителей олимпиады робототехники.

18 ноября, 02:45

Applied Materials CEO: 'The future of competition' is cha...

Jim Cramer caught up with Applied Materials President and CEO Gary Dickerson about his company's role in artificial intelligence and big data.

Выбор редакции
18 ноября, 00:50

Sjoerd Gehring: How To Create A Positive Candidate And Employee Experience

I spoke to Sjoerd Gehring about how J&J Shine improves the candidate experience, the relationship between candidate and employee experience, how artificial intelligence will impact recruiting, the biggest challenges he's had as a young leader and his best career advice.

18 ноября, 00:46

Baidu (BIDU) Shows Hardware Prowess with Raven HQR

Though Baidu (BIDU) has highlighted Raven H's design and hardware, details on its functionality are still scant.

17 ноября, 21:52

Майкл Кофман: О критическом недостатке танка Т-14 на платформе «Армата»

Соединенные Штаты внимательно следят за изменениями в российской армии и тщательно анализируют все связанные с ней выступления ответственных лиц России. Правда, порой приходят к неожиданным выводам.Заместитель председателя правительства РФ Дмитрий Рогозин дал интервью программе «Мнение», выходящей на канале «Россия 24», в котором рассказал о государственной программе вооружений на 2018–2027 годы. В частности он упомянул о серийных поставках танка Т-14, созданных на платформе «Армата».дальше* Эксперты оценивают боевую технику не только по общим впечатлениям или ощущениям, а исходя из различных аспектов, в основном основываясь на своем опыте, на положениях боевых уставов, на всестороннем анализе боевого применения, на традициях, на опыте участников боев. Кстати, в армии США изучению боевого опыта и его всестороннему внедрению в войска и военную науку, уделяется огромное значение.Еще в 2012 году, на страницах данного журнала шли горячие дискуссии о необходимости разработки нового танка, или ограничиться модернизацией уже существующих, уделив внимание активной защите. Обсуждали и компоновку танка, и численность экипажа, и "НЕСПОСОБНОСТЬ" иностранных конструкторов создать необходимые АЗ или МЗ, и вместо их применять ЗАРЯЖАЮЩЕГО.Вот и эта статья говорит об опыте и анализе, основанном на своих взглядах.Их подтвердить или опровергнуть можно только в реальном бою и в количестве выпущенных боевых машин. Можно разработать симулятор танка и проверять в виртуальной реальности преимущества и недостатки, но это будет возможно, только когда полноценно заработает искусственный интеллект, полностью соответствующий человеческому интеллекту (опыту, знаниям, интуиции, риску, русскому "авось" и т.д.).Моя позиция остается прежней: вооружение должно выполнять задачи, вытекающие их характера боя, а для этого нужно и совершенствовать военную науку, и изменять способы применения танков, и совершенствовать их защиту, и внедрять новые способы поддержки танков в различных видах боя за счет изменения состава, назначения, возможностей поддерживающих подразделений. Это и БМПТ, и тяжелая БМП на базе танка с 57-мм орудием, и легкие БМП с усиленной защитой и измененным предназначением (не как транспортное средство, а как огневое средство и вспомогательное для пехоты).

Выбор редакции
17 ноября, 20:30

В Чили разработали веганского ИИ-повара

Веганы совсем не едят пищи животного происхождения, поэтому даже заправив овощной салат майонезом, вы рискуете нарваться на длинную и познавательную лекцию о том, как вредно есть яйца и как неэтично предлагать продукт на его основе сознательным людям, употребляющим в пищу только продукты растительного происхождения. Если вы всё-таки хотите угодить этим ребятам, лучше заранее подготовиться, заручившись […]

17 ноября, 20:20

Выгоды от роботизации придется подождать, — Financial Times

Перефразируя старое саркастическое высказывание экономиста Роберта Солоу, можно сказать, что роботы везде, их нет только в статистике производительности. Рост показателей производительности действительно разочаровывает как в Великобритании, так и в других странах. Безработица рекордно низкая, трудоустроены […]

17 ноября, 19:27

Выгоды от роботизации придется подождать - FT

Экономика должна постепенно приспособиться к новым и более эффективным технологиям, и это не произойдет мгновенно.

Выбор редакции
17 ноября, 18:59

The Top 15 Employers Hiring Artificial Intelligence Talent

AI is the hottest field in tech, yet there's a staggering talent shortage, which has driven salaries sky-high. Careers site Glassdoor released a list of the top 15 employers seeking AI expertise.

17 ноября, 18:33

Applied Materials (AMAT) Beats on Q4 Earnings and Revenues

Applied Materials (AMAT) delivers strong fiscal fourth-quarter results driven by differentiated products, new technologies and innovation strategy.

Выбор редакции
17 ноября, 18:16

Apple (AAPL) and the Never Ending $1 Trillion Speculation

Apple's (AAPL) iPhone X, Services and China could help it reach the $1 trillion valuation mark in 2018, per GBH Insights analyst.

28 июня, 14:38

Что стоит за скандалом вокруг TELEGRAM?

Скандал между Роскомнадзором и владельцем мессенджера Телеграм Павлом Дуровым все больше приобретает черты политической интриги. Сдается, что это тот случай, о котором говорят: когда кошка похожа на кошку, мяукает как кошка и ходит как кошка, то похоже, это кошка и есть.В пятницу 23 июня в пятницу Роскомнадзор внезапно заявил о возможной блокировке Telegram в случае отказа создателей мессенджера регистрироваться в качестве организатора распространения информации (ОРИ). Стоит вспомнить, что еще в мае тот же Роскомнадзор называл не более чем «обычными слухами» намерение ведомства внести мессенджер в реестр ОРИ. Как известно, согласно законодательству РФ, все организаторы распространения информации обязаны хранить данные российских пользователей их ресурсов на территории страны в течение одного года, предоставляя спецслужбам по первому требованию доступ к архивам.И вдруг Александр Жаров, глава Роскомнадзора и кандидат медицинских наук, заявил о том, что Telegram будет заблокирован уже через несколько дней, если Павел Дуров не выполнит требование Роскомнадзора зарегистрировать свой мессенджер. Что же случилось? Одна из основных версий — сообщение ФСБ о том, что Telegram использовался террористами. В частности, при подготовке теракта в метро Санкт-Петербурга. Мой личный источник в силовых структурах подтверждает эту информацию, и у меня нет причин нему не доверять.Террористы довольно умело используют не только мессенджеры, но даже онлайн - чаты в компьютерных играх для передачи зашифрованных сообщений. Об это я недавно говорил в интервью программе «Тайны Чапман» на РЕН ТВ. Видимо, после столь резонансных заявлений спецслужб глава Роскомнадзора Александр Жаров и изменил свое отношение к Telegram .Он заявил, что Павел Дуров «последовательно демонстрирует правовой нигилизм», подвергая риску жизни миллионов человек. С его мнением согласен советник президента по интернету Герман Клименко: «С WhatsApp мы хотя бы ведём диалог. С Google мы разговариваем — они начали платить НДС. Youtube блокирует видео. Есть определённая борьба, но мы находимся в диалоге. А позиция Дурова совершенно анархичная — „я не буду“, и всё. Мне бы хотелось самому остаться пользователем Telegram, но — будет запрещено, значит, будет запрещено».Жаров даже попытался объяснить «простыми словами» свою позицию:«Информация внутри Telegram шифруется, и проникнуть в нее мгновенно при отсутствии ключей для дешифрации этой информации ни одной спецслужбе еще не удавалось — это очень сложно. И, соответственно, нежелание господина Дурова предоставить ключи от этой информации всем спецслужбам мира — насколько я знаю, это так — позволяет террористам по-прежнему безнаказанно убивать людей с использованием этого канала коммуникаций».Справка:Александр Жаров в 1987 году окончил Челябинский медицинский институт по специальности «врач-анестезиолог и реаниматолог». Кандидат медицинских наук. В январе 2004 года в Федеральном научном центре гигиены имени Ф. Ф. Эрисмана защитил кандидатскую диссертацию на тему «Медико-гигиенические основы формирования здорового образа жизни в Российской Федерации». В 2006 году закончил юридический факультет Российской академии государственной службы при президенте России.В декабре 2013 года сообщество «Диссернет» опубликовало результаты своей экспертизы текста кандидатской диссертации Александра Жарова. Было выявлено, что из 145 проанализированных страниц диссертации 52 её страницы частично или полностью заимствованы без ссылок на источники из двух государственных докладов «О санитарно-эпидемиологической обстановке в Российской Федерации» за 1998 и 2002 годы, подготовленных департаментом госсанэпиднадзора Минздрава России.Павел Дуров не согласился с мнением Жарова относительно предоставления «ключей для дешифрации»: «Это требование не только противоречит 23-й статье Конституции РФ о праве на тайну переписки, но и демонстрирует незнание того, как шифруется коммуникация в 2017 году».Дуров заявил, что в его мессенджере используется так называемое оконечное шифрование и что доступ к дешифровке сообщений есть только у пользователей, которые хранят ключи на своих компьютерах и мобильниках.Таким образом, у компании Дурова, если верить его словам, нет возможности дать спецслужбам доступ к приватным чатам Telegram.Справка:Оконечное (абонентское) шифрование позволяет обеспечивать конфиденциальность данных, передаваемых между двумя прикладными объектами. Другими словами, отправитель зашифровывает данные, получатель - расшифровывает. Такой способ имеет следующие особенности:-защищенным оказывается только содержание сообщения: вся служебная информация остается открытой;-никто кроме отправителя и получателя восстановить информацию не может (если используемый алгоритм шифрования достаточно стоек);-маршрут передачи несущественен, в любом канале информация останется защищенной;-для каждой пары пользователей требуется уникальный ключ;-пользователь должен знать процедуры шифрования и распределения ключей.Дуров также считает, что «открытие» Telegram для спецслужб или блокировка мессенджера не поможет в борьбе с террористами: «Потенциальная блокировка Telegram никак не усложнит задачи террористов и наркодилеров — в их распоряжении останутся десятки других мессенджеров, построенных на оконечном шифровании (+VPN). Ни в одной стране мира не заблокированы все подобные мессенджеры или все сервисы VPN. Чтобы победить терроризм через блокировки, придется заблокировать интернет».Откровенно говоря, в экспертном сообществе нет сомнений, что более-менее опытный хакер может без особого труда взломать личные шифры пользователей любого мессенджера и проникнуть в тайны приватных переписок их пользователей. Мне приходилось слышать и такое мнение, что глобальная система американской электронной разведки «Эшелон» может читать и читает практически все, что захочет в любой стране мира. Именно поэтому самые секретные решения правительства и спецслужб РФ записываются на устаревших морально и физически пишущих машинках, а не на компьютерах. Кстати, современные технологии позволяют украсть информацию даже с компьютера, не подключенного к сети, просто в течении нескольких минут записав его излучения с помощью простейшего устройства. Система искусственного интеллекта «Палантир», обслуживающая американскую контрразведку, анализирует данные, полученные «Эшелоном» и вычисляет практически любые намерения террористов. Ни в одной стране мира не систем, сравнимых с «Эшелоном» и «Палантиром». В том числе и в России. Видимо, поэтому российские силовики и чиновники борются с террористами столь импульсивно, чередуя благодушие с внезапными вспышками супербдительности. Ну, ведь любому грамотному инженеру известно, что всевозможные мессенджеры используются не только законопослушными гражданами, но злоумыщленниками. Но почему-то в странах Запада мессенджеры никто не запрещает. Не так давно суперпопулярный во всем мире мессенджер WhatsApp так же, как и Telegram, включил оконечное шифрование для более чем миллиарда своих пользователей. Нужно сказать что само по себе шифрование сообщений не является гарантией конфиденциальности. Чтобы переданные сообщения не прочитал никто посторонний, их нужно удалять сразу после прочтения. А если телефон попадет в чужие руки, то его можно разблокировать и получить доступ ко всей информации. Telegram, кстати, имеет функцию «самоуничтожения», при активации которой сообщения автоматически удаляются через установленный пользователем промежуток времени. Кстати, в Telegram оконечное шифрование не работает по умолчанию, его нужно включать специально.Порыскав немного по интернету, я убедился, обратившись к вездесущим хакерам, за небольшие деньги можно получить доступ к тайнам частных лиц. Вот, например, такое объявление:«Распечатка СМС (WhatsApp,Viber) от 300р. Детализация звонков 300р. Пробить номер 300р. Гарантия! Реальные доказательства! Оплата по факту».Выскажу свое личное мнение: доступ к тайнам переписки любых, даже самых зловещих террористов грамотные силовики могут получить, даже не получив легального доступа к ключам шифрования тех или иных информационных ресурсов. Но это хлопотно и накладно, если речь не идет о единичном перехвате.Кроме того, не все силовики грамотны. О чиновниках и говорить не приходится, достаточно познакомиться с биографией того же Жарова. Кстати, вчера глава Роскомнадзора еще раз изменил свою позицию в отношении Telegram:«Никакой речи о том, что будет доступ к переписке пользователей, не идет». «Вопрос только об одном — о пяти идентификаторах, которые мессенджер должен сообщить в Роскомнадзор, они официально будут внесены в реестр распространения информации. На этом точка», — сказал глава Роскомнадзора.То есть, Павел Дуров уже не правовой нигилист, который рискует судьбами миллионов человек? И нашим спецслужбам уже не нужен доступ к переписке террористов?Вспоминаются слова героя известной кинокомедии:«Когда вы говорите, Иван Васильевич, создается впечатление, что вы бредите». У меня создается впечатление, что Роскомнадзору действительно что-то нужно от Павла Дурова. Но что это, возможно, не знает и сам Роскомнадзор. Что не удивительно, честно говоря.Таким образом, налицо какая-то громко мяукающая «кошка», то бишь политическая интрига, шифровальные ключи от которой нам покамест недоступны.Предположу, что речь идет просто о том, чтобы собрать все книги, то бишь мессенджеры, да и сжечь. А интернет вообще – отключить.Не удивлюсь, если это и есть та самая «кошка», о которой я упомянул в самом начале. Как законопослушный гражданин и неплохой аналитик, я заглядываю в не столь отдаленную перспективу и готовлю каменный резец, чтобы высекать свои беспристрастные заметки на скалах.Ну что ж, и в мезозое люди жили. Владимир Прохватилов, житель сетиhttp://argumentiru.com/politics/2017/06/466754

02 июня, 01:01

Главный секрет Искусственного Интеллекта: никто не знает как он работает

В прошлом году на тихих дорогах Монмут-Каунти, штат Нью-Джерси, появился странный беспилотный автомобиль. Экспериментальный аппарат, разработанный Nvidia, внешне не отличался от других автономных автомобилей, но тем не менее не был похож на то, что продемонстрировали Google, Tesla или General Motors. Автомобиль не выполнял инструкции инженеров или программистов. Вместо этого он полностью полагался на алгоритм, который учился водить, наблюдая, как человек делает это.Научить автомобиль вести себя подобным образом было внушительным достижением. Однако тревогу вызывает то, что непонятно машина принимает решения. Информация от датчиков автомобиля поступает прямо в огромную сеть искусственных нейронов, которые обрабатывают данные, а затем доставляют команды, необходимые для управления рулевым колесом, тормозами и другими системами. Результат, кажется, соответствует реакциям, которые вы ожидаете от человека-водителя. Но что, если однажды он сделает что-то неожиданное, например, врежется в дерево или заглохнет на зелёном? На данный момент трудно будет понять почему. Система настолько сложна, что даже инженеры, разработавшие её, испытывают сложности в установлении причин отдельных действий. И вы не можете спросить её: нет очевидного способа создать такую ​​систему, чтобы она всегда могла объяснить, почему она сделала то, что она сделала.Таинственный ум этого автомобиля свидетельствует о надвигающейся проблеме. Базирующаяся в автомобиле технология искусственного интеллекта, известная как глубокое обучение, оказалась очень эффективной при решении проблем за последние годы, и она широко применяется для таких задач, как распознавание изображений, голоса и языковой перевод. Сейчас есть надежда, что такие же методы смогут диагностировать смертельные болезни, принимать решения в торговле на миллионы долларов и делать бесчисленное множество других вещей для преобразования целых отраслей.Но этого не произойдёт — или не должно произойти — если мы не найдём способы сделать такие методы, как глубокое обучение, более понятными их создателям и подотчётными пользователям. В противном случае будет трудно предсказать, когда могут произойти сбои, а они неизбежны. Это одна из причин, по которой автомобиль Nvidia все ещё экспериментален.Уже сейчас математические модели используются для определения того, кто заслуживает условно-досрочного освобождения, кто достоин получения кредита, а кого следует взять на работу. Если бы вы могли получить доступ к этим математическим моделям, можно было бы понять их рассуждения. Но банки, военные, работодатели и другие теперь обращают внимание на более сложные подходы, которые могут сделать автоматизированное принятие решений совершенно непостижимым. Глубокое обучение — наиболее распространённый из этих подходов, представляет собой принципиально иной путь программирования компьютеров. «Эта проблема уже актуальна, и в будущем она будет гораздо более актуальной», — говорит Томми Яаккола, профессор Массачусетского технологического института, который работает над приложениями машинного обучения. «Неважно инвестиционное ли это решение, медицинское или, возможно, военное, вы не захотите просто полагаться на метод из «чёрного ящика».Уже существует аргумент по поводу того, что возможность допросить систему ИИ о том, как она пришла к своим выводам, является фундаментальным юридическим правом. Начиная с лета 2018 года, Европейский Союз может потребовать, чтобы компании давали пользователям объяснения решений, которые принимают автоматизированные системы. Это может быть невозможно даже для систем, которые кажутся относительно простыми, таких как приложения и веб-сайты, которые используют глубокое обучение для показа рекламы или рекомендации песен. Компьютеры, которые запускают эти службы, запрограммированы сами собой, и они делают это так, что мы не можем понять. Даже инженеры, которые строят эти приложения, не могут полностью объяснить их поведение.Это поднимает ошеломляющие вопросы. По мере развития технологии, мы, возможно, вскоре пересечём некоторый порог, за которым использование ИИ потребует большего доверия. Конечно, мы, люди, не всегда можем по-настоящему объяснить наши мыслительные процессы — но мы находим способы интуитивно доверять и оценивать поведение других людей. Будет ли это также возможно с машинами, которые думают и принимают решения иначе, чем мы? Человечество никогда раньше не строило машины, которые принимают решения неведомым даже их создателям образом. Насколько мы можем доверять разумным машинам, которые могут быть непредсказуемыми и непостижимыми? Эти вопросы отправили меня в путешествие к самому передовому краю исследований в области алгоритмов искусственного интеллекта, в ходе которых я посетит Google, Apple и многие другие места, а также встретился с одним из великих философов нашего времени.Художник Адам Феррисс создал это и следующее в статье изображение, с помощью программы Deep Dream, которая настраивает картинку так, чтобы глубокой нейронной сети было удобнее его распознавать. Изображения были получены с использованием слоя нейронной сети среднего уровняВ 2015 году исследовательская группа в больнице Маунт Синай в Нью-Йорке решила ​​применять глубокое обучение в обширной базе данных больницы о пациентах. Этот набор данных содержит сотни переменных, взятых из результатов тестирования, визитов к врачу и т. д. Полученная в результате программа, которую исследователи назвали Deep Patient, была обучена с использованием данных примерно 700 000 человек, а при тестировании на новых данных она оказалась невероятно хороша при прогнозировании болезни. Без какой-либо экспертной инструкции Deep Patient обнаружил шаблоны, скрытые в больничных данных, которые указывали на то, что люди находились на пути к широкому спектру заболеваний, включая рак печени. «Существует много замечательных методов прогнозирования заболеваний на основе записей пациента», — говорит Джоэл Дадли, возглавляющий команду Маунт Синай. Но, добавляет он, «Deep Patient просто потрясающ».В то же время Deep Patient немного озадачивает. Похоже, что он на удивление хорошо обнаруживает зарождение психических расстройств, таких как шизофрения. Но поскольку шизофрения, как известно, трудно поддаётся предсказанию для медиков, Дадли задался вопросом как это возможно. Он все ещё не знает. Новый инструмент не даёт представления о том, как он это делает. Если что-то вроде Deep Patient на самом деле собирается помочь врачам, в идеале он должен объяснить свой прогноз, дабы убедить их в том, что он является точным и оправдать, скажем, изменение в лекарствах, которые будут назначены. «Мы можем построить эти модели, — печально говорит Дадли, — но мы не знаем, как они работают».Искусственный интеллект не всегда был таким. С самого начала были две мыслительные школы которые спорили по поводу того, насколько понятным или объяснимым должен быть ИИ. Многие думали, что имеет смысл создавать машины, которые рассуждали по правилам и логике, делая их внутренний диалог прозрачным для любого, кто хотел бы изучить код. Другие считали, что интеллект будет легче проявляться, если бы машины будут черпать вдохновение в биологии и будут учиться, наблюдая и переживая. Это означало, что компьютерное программирование должно происходить у него в голове. Вместо написания команд программистом программа генерирует свой собственный алгоритм на основе данных примера и желаемого результата. Технологии машинного обучения, которые позже эволюционировали в самые мощные сегодня системы ИИ, следуют последнему пути: машина, по сути, сама программирует себя.Сначала этот подход имел ограниченное практическое применение, и в 1960-х и 70-х годах он оставался в основном ограниченным. Затем возобновился интерес к компьютеризации многих отраслей и появлению больших массивов данных. Это вдохновило разработку более мощных методов машинного обучения, особенно новых версий одной из них, известной как искусственная нейронная сеть. К 1990-м годам нейронные сети могли автоматически оцифровывать рукописные символы.Но только в начале этого десятилетия, после нескольких хитроумных ухищрений и уточнений, очень большие или «глубокие» нейронные сети продемонстрировали значительное улучшение автоматического восприятия. Именно глубокое обучение «виновно» в сегодняшнем росте возможностей ИИ. Оно дало компьютерам необычайные возможности, такие как способность распознавать произносимые слова почти так же хорошо, как и человек — слишком сложный навык, чтобы вручную обучить ему машину. Глубокое обучение трансформировало компьютерное зрение и значительно улучшило машинный перевод. В настоящее время оно используется для руководства всеми видами ключевых решений в медицине, финансах, производстве и за его пределами.Адам Феррис и DeepDreamРабота любой технологии машинного обучения по своей природе более непрозрачна даже для компьютерных специалистов, чем вручную написанная система. Это не значит, что все будущие техники искусственного интеллекта будут одинаково непознаваемы. Но по своей природе глубокое обучение — особенно глубокий чёрный ящик.Вы не можете просто заглянуть внутрь глубокой нейронной сети, чтобы увидеть, как она работает. Аргументация сети встроена в поведение тысяч смоделированных нейронов, расположенных в десятках или даже сотнях сложно взаимосвязанных слоёв. Каждый нейрон в первом слое получает вводную, как и интенсивность пикселя в изображении, а затем выполняет вычисление перед выводом нового сигнала. Эти выходные сигналы передаются в сложной сети нейронам следующего уровня и так далее, пока не будет получен общий результат. Кроме того, существует процесс, известный как back-propagation, который корректирует вычисления отдельных нейронов таким образом, чтобы сеть научилась производить желаемый результат.Множество уровней в глубокой сети позволяют распознавать вещи разной сложности абстракции. Например, в системе, предназначенной для распознавания собак, нижние слои распознают простые вещи, такие как контуры или цвет; более высокие слои распознают более сложные вещи, такие как мех или глаза; и уже самый верхний слой идентифицирует весь объект как собаку. Такой же подход может быть применён и к другим вводным, которые заставляют машину обучать себя: звукам, которые составляют слова в речи, буквам и словам, которые создают предложения в тексте, движениям рулевого колеса, необходимым для вождения.Использовались оригинальные стратегии, чтобы попытаться отследить и таким образом объяснить более подробно, что происходит в таких системах. В 2015 году исследователи из Google изменили алгоритм распознавания изображений на основе глубокого обучения, чтобы вместо того, чтобы определять объекты на фотографиях, он генерировал или изменял их. За счёт эффективного выполнения алгоритма в обратном порядке, они хотели обнаружить функции, которые программа использует для распознавания, скажем, птиц или зданий. Полученные изображения, созданные проектом, известным как Deep Dream, продемонстрировали гротескных инопланетных животных, появлявшихся из облаков и растений, радужные пагоды, цветущие среди лесов и горных хребтов. Изображения доказали, что глубокое обучение необязательно полностью непостижимо: алгоритмы основываются на знакомых визуальных функциях, таких как птичий клюв или перья. Но изображения также намекали на то, насколько глубокое обучение отличается от человеческого восприятия, и как оно интерпретирует артефакты, которые мы могли бы проигнорировать. Исследователи Google отметили, что когда его алгоритм генерировал изображения гантели, он также генерировал человеческую руку, удерживающую её. Машина пришла к выводу, что рука является частью вещи.Дальнейший прогресс был достигнут благодаря использованию идей, заимствованных из неврологии и когнитивной науки. Группа во главе с доктором из Университета Вайоминга Джеффом Клюном (Jeff Clune) использовала аналоговый эквивалент оптических иллюзий для тестирования глубоких нейронных сетей. В 2015 году группа Клюна продемонстрировала, как определённые изображения могут обмануть такую ​​сеть и заставить её воспринимать вещи, которых там нет, потому что изображения используют низкоуровневые шаблоны, которые ищет система. Один из сотрудников Clune, Джейсон Йосинский, также создал инструмент, который действует как зонд в мозге. Его инструмент нацелен на любой нейрон в середине сети и ищет изображение, которое активирует его больше всего. Изображения, которые появляются, являются абстрактными (представьте, что импрессионисты рисуют фламинго или школьный автобус), вынося на первый план таинственную природу способностей машины воспринимать вещи.Однако нам нужно больше, чем просто заглянуть в мышление ИИ, и простого решения нет. Именно взаимодействие вычислений внутри глубокой нейронной сети имеет решающее значение для распознавания образов более высокого уровня и принятия сложных решений, но эти вычисления являются паутиной математических функций и переменных. «Если бы у вас была очень маленькая нейронная сеть, вы могли бы её понять», — говорит Яаккола. «Но как только она становится очень большой и имеет тысячи единиц на слой при сотнях слоёв, тогда всё становится совершенно непонятным».В офисе рядом с Яакколой работает Регина Барзилай, профессор Массачусетского технологического института, которая намерена применять машинное обучение в медицине. Метод был удивительным сам по себе, но Барзилай был также встревожен тем, что современные методы статистического и машинного обучения не использовались для оказания помощи в онкологических исследованиях или для руководства по лечению пациентов. Она говорит, что ИИ обладает огромным потенциалом для медицины, но понимает, что этот потенциал будет означать выход за рамки одних лишь медицинских записей. Она предлагает использовать больше необработанных данных, которые, по её словам, в настоящее время недостаточно используются: «обработка изображений, данных патологии, всей этой информации».После того, как она закончила изучать лечение рака в прошлом году, Барзилай и её ученики начали работать с врачами в больнице Массачусетса, чтобы разработать систему, способную выявлять патологии и идентифицировать пациентов с определёнными клиническими характеристиками, которые исследователи могли бы хотеть изучить. Тем не менее, Барзилай понял, что системе необходимо будет объяснить свои аргументы. Итак, вместе с Яакколой и учеником она добавила шаг: система извлекает и выделяет отрывки текста, которые являются репрезентативными по найденному шаблону. Барзилай и её ученики также разрабатывают алгоритм глубокого обучения, способный обнаруживать ранние признаки рака молочной железы по изображениям маммограммы, и они направлены на то, чтобы дать этой системе некоторую способность объяснить ёе рассуждения. «Вам действительно нужно создать цикл, в котором машина и человек будут сотрудничать», — говорит Барзилай.Насколько хорошо мы можем поладить с машинами, которые непредсказуемы и непостижимы?Американские военные вкладывают миллиарды в проекты, которые будут использовать машинное обучение для пилотирования транспортных средств и самолетов, выявлять цели и помогать аналитикам просеивать огромные груды разведывательных данных. Здесь больше, чем где-либо ещё, даже больше, чем в медицине, мало места для алгоритмической тайны, и министерство обороны определило объяснимость как ключевой камень преткновения.Дэвид Ганнинг, менеджер программ в Агентстве перспективных исследований обороны, наблюдает за программой под названием Explainable Artificial Intelligence. Ветеран агентства, который ранее курировал проект DARPA, позднее переродившийся в Siri, Ганнинг говорит, что автоматизация примерима в бесчисленных военных областях. Аналитики тестируют машинное обучение как способ выявления закономерностей в огромных количествах шпионских данных. В настоящее время разрабатываются и тестируются многие беспилотные наземные транспортные средства и летательные аппараты. Но солдаты, вероятно, не будут чувствовать себя комфортно в роботизированном танке, который не будет им ничего объяснять, а аналитики будут неохотно работать с информацией без каких-либо рассуждений. «Часто характер этих систем машинного обучения приводит к появлению множества ложных тревог, поэтому аналитику Intel действительно нужна дополнительная помощь, чтобы понять, почему была сделана та или иная рекомендация», — говорит Ганнинг.В марте этого года DARPA выбрало 13 проектов из академических и промышленных кругов для финансирования по программе Ганнинга. Некоторые из них могли опираться на работу, возглавляемую Карлосом Гестрином, профессором Вашингтонского университета. Он и его коллеги разработали способ, позволяющий системам машинного обучения обосновывать свои результаты. По сути, в рамках этого метода компьютер автоматически находит несколько примеров из набора данных и даёт по ним короткое пояснение. Например, система, предназначенная для классификации сообщений электронной почты, поступающих от террориста, может обрабатывать миллионы сообщений при подготовке и принятии решений. Но, используя подход вашингтонской команды, она может выделить определённые ключевые слова в сообщении. Группа Гестрина также разработала способы для систем распознавания изображений, чтобы распознать их алгоритмы, выделив наиболее важные части изображения.Один из недостатков этого подхода и других подобных ему, состоит в том, что предоставленные объяснения всегда будут упрощены, что означает, что некоторые важные сведения могут быть потеряны на этом пути. «Мы не достигли мечты, согласно которой в ИИ беседует с нами и объясняет свои действия», — говорит Гестрин — «мы далеко от истинной интерпретации ИИ».Неясности не должно быть в ситуациях с высокими ставками, таких как диагностика рака или военные манёвры. Знание рассуждений ИИ также будет иметь решающее значение, если технология станет общей и полезной частью нашей повседневной жизни. Том Грубер, возглавляющий команду Siri в Apple, говорит, что объяснимость — это ключевое соображение для его команды, поскольку она пытается сделать Siri более умным и способным виртуальным помощником. Грубер не комментирует конкретные планы относительно будущего Siri, но легко представить, что если вы получите рекомендацию ресторана от Siri, то захотите узнать, на чём были основаны её выводы. Руслан Салахутдинов, директор отдела исследований ИИ в Apple и адъюнкт-профессор Университета Карнеги-Меллона, видит объяснимость в качестве основы эволюции отношений между людьми и интеллектуальными машинами. «Это приведёт к доверию» — говорит он.Так же, как многие аспекты человеческого поведения невозможно объяснить подробно, возможно, и для ИИ не получится объяснить все, что он делает. «Даже если кто-то может дать вам разумное объяснение [его или её действий], оно, вероятно, будет неполно, и то же самое может быть справедливо для ИИ», говорит Кьюн из Университета Вайоминга. «Это может быть только часть природы интеллекта, только часть доступна рациональному объяснению. Некоторые из них просто инстинктивны, или подсознательны, или непостижимы».Если это так, то на каком-то этапе нам, возможно, придётся просто довериться мнению ИИ или обойтись без его использования. Точно так же, как общество строится на контракте ожидаемого поведения, нам нужно будет проектировать системы ИИ, чтобы уважать наши социальные нормы и соответствовать им. Если мы хотим создавать роботизированные танки и другие машины для убийства, важно, чтобы принятие ими решений соответствовало нашим этическим суждениям.Чтобы исследовать эти метафизические концепции, я отправился в Университет Тафтса для встречи с Дэниелом Деннеттом, известным философом и ученым-когнитивистом, который изучает сознание и ум. Глава последней книги Деннетта «От бактерии до Баха и обратно», энциклопедического трактата о сознании, предполагает, что естественная часть эволюции самого интеллекта — это создание систем, способных выполнять задачи, которые их создатели не могут выполнить. «Вопрос в том, что нам нужно сделать, чтобы сделать наше детище разумным: какие стандарты мы требуем от них и от нас самих?» — говорит он мне в своем захламлённом кабинете в идиллическом университетском городке.У него также есть одно предупреждение. «Я думаю, что, если мы собираемся использовать эти вещи и полагаться на них, тогда давайте крепко задумаемся о том, как и почему они дают нам ответы, насколько это возможно», — говорит он. Но так как не может быть идеального ответа, мы должны быть так же осторожны в объяснениях ИИ – также, как и в человеческих обьяснениях — независимо от того, насколько умна машина. «Если она не может достичь успеха в обьяснении нам своей логики, — говорит он, — тогда не доверяйте ей».MIT Technology Review. Автор: Уйилл Кнайт, (с)

20 марта, 23:30

Эпоха класса бесполезных

Историк Ювал Ноа Харари делает неожиданное предсказание: так же, как массовая индустриализация создала рабочий класс, революция ИИ создаст новый класс бесполезных.Возможно, самый важный вопрос экономики 21-го века: что делать со всеми лишними людьми, если у компаний высокоразвитые алгоритмы, которые могут делать почти все лучше, чем люди?Это совсем не новый вопрос. Люди давно опасаются, что механизация может привести к массовой безработице. Подобного не происходило никогда, потому что когда старые профессии становились неактуальными — появились новые, и всегда было что-то, что люди могли бы делать лучше, чем машины. Но это не закон природы, и ничто не гарантирует, что такая же ситуация сохранится в будущем. Идея о том, что люди всегда будут иметь уникальную способность недосягаемую для бессознательных алгоритмов — выдача желаемого за действительное. Нынешний научный ответ на эту несбыточную мечту можно резюмировать тремя простыми принципами:Организмы — это алгоритмы. Каждое животное, включая Homo sapiens, представляет собой совокупность органических алгоритмов, сформированных естественным отбором за миллионы лет эволюции.Алгоритмические вычисления не зависят от материалов, из которых построен калькулятор. Будь то счёты из дерева, железа или пластика, два бусины плюс два бусины равны четырём бусинам.Следовательно, нет оснований думать, что органические алгоритмы могут делать то, что неорганические алгоритмы никогда не смогут реплицировать или превзойти. Пока вычисления остаются в силе, какое значение имеют алгоритмы, состоящие из углерода или кремния?Истиной является то, что в настоящее время существует множество вещей, с которыми органические алгоритмы справляются лучше, чем неорганические, и эксперты неоднократно заявляли, что некоторые вещи «навсегда» останутся вне досягаемости неорганических алгоритмов. Но «навсегда» часто означает обозримый период не более десятилетия или двух. До недавнего времени распознавание лиц было любимым примером того, что легко даётся младенцам, но недоступно самым мощным компьютерам. Сегодня программы распознавания лиц способны идентифицировать людей гораздо эффективнее и быстрее, чем люди. В 2004 году профессор Франк Леви из Массачусетского технологического института и профессор Ричард Мурнайн из Гарварда опубликовали исследование о рынке труда, в котором перечислены те профессии, которые, скорее всего, будут автоматизированы. Вождение грузовика приводилось в качестве примера работы, которая в обозримом будущем не подвергнется автоматизации. Всего лишь 10 лет спустя Google и Tesla могут не только представить подобную технологию, но и фактически сделать такого водителя возможным.99 процентов человеческих качеств и способностей просто избыточны для большинства современных профессий.Фактически, со временем становится проще и проще заменять людей компьютерными алгоритмами не только потому, что алгоритмы становятся более умными, но и потому, что люди профессионализуются. Древние охотники-собиратели осваивали самые разнообразные навыки, чтобы выжить, поэтому было бы очень сложно спроектировать робота-охотника-собирателя. Такой робот должен был бы знать, как подготовить наконечники копья из кремния, уметь найти съедобные грибы в лесу, выследить мамонта, координировать охоту с десятком других охотников и использовать лекарственные травы для перевязки любых ран. Однако таксист или кардиолог специализируется в гораздо более узкой нише чем охотник-собиратель, что облегчает их замену на ИИ. Компьютер не приближается к человеческому существованию, просто 99 процентов человеческих качеств и способностей просто для выполнения большинства современных работ. Для искусственного интеллекта, дабы вытеснить людей с рынка труда, нужно лишь опередить нас в специфических способностях, которые требует конкретная профессия.Поскольку алгоритмы выталкивают людей с рынка труда, богатство и власть могут сосредоточиться в руках крошечной элиты, которая владеет всемогущими алгоритмами, создавая беспрецедентное социальное и политическое неравенство. Как альтернативный вариант, сами алгоритмы могут стать собственниками. Человеческое право уже признает интерсубъективные сущности, такие как корпорации, нации, «юридические лица». Хотя у Toyota или Аргентины нет ни тела, ни ума, они подчиняются международным законам, могут владеть землёй и деньгами, могут подать в суд или выступать в суде ответчиками. Скоро мы сможем присвоить подобный статус алгоритмам. Алгоритм сможет после этого владеть транспортной империей или венчурным фондом, не подчиняясь желаниям какого-либо человека. Прежде чем отвергнуть данную мысль учтите, что большая часть нашей планеты уже юридически принадлежит нечеловеческим интерсубъективным образованиям, а именно нациям и корпорациям. Так же, как 5000 лет назад большая часть Шумера принадлежала воображаемым богам, таким как Энки и Инанна.Так что же будут делать люди? Часто утверждается, что искусство даёт нам нашу замечательную, конкретно человеческую уникальность. Неужели в мире, где компьютеры заменят врачей, водителей, учителей и даже землевладельцев, все станут художниками? Однако трудно понять, почему художественное творчество защищено от нашествия алгоритмов. Согласно наукам о жизни, искусство не является продуктом какого-то заколдованного духа или метафизической души, а скорее плодом органических алгоритмов, распознающих математические модели. Если это так, то нет причин, по которым неорганические алгоритмы не могли бы справиться с такой задачей.Есть несколько безопасных видов работ: вероятность того, что алгоритмы заменят археологов — всего 0,7 процента.В XIX веке промышленная революция создала огромный городской пролетариат, и социализм получил широкое распространение, потому что никакому другому вероисповеданию не удалось ответить на беспрецедентные потребности, надежды и опасения этого нового рабочего класса. Либерализм в конечном счёте победил социализм, только приняв лучшие части социалистической системы. В XXI веке мы можем стать свидетелями создания огромного нового класса безработных: людей, лишённых какой-либо экономической, политической или даже художественной ценности, которые ничего не делают для процветания, власти и славы общества. Этот «бесполезный класс» не будет просто безработным — он будет неработоспособным.В сентябре 2013 года два исследователя из Оксфорда Карл Бенедикт Фрей и Майкл А. Осборн опубликовали работу «Будущее занятости», в которой исследовали вероятность того, что в течение ближайших 20 лет компьютерные алгоритмы подчинят себе различные профессии, и в результате установили, что 47 процентов рабочих мест в США подвергаются высокому риску. Например, существует 99-процентная вероятность того, что к 2033 году работники сферы телемаркетинга и страховые агенты потеряют свои рабочие места, а их заменят алгоритмы. 98 процентов составояет вероятность того, что то же самое произойдёт со спортивными судьями. Кассиры — 97 процентов. Шеф-повары — 96 процентов. Официанты — 94 процента. Параюристы — 94 процента. Туристические гиды — 91 процент. Пекари — 89 процентов. Водители автобусов — 89 процентов. Строительные рабочие — 88 процентов. Ассистенты ветеринаров — 86 процентов. Охранники — 84 процента. Матросы — 83 процента. Бармены — 77 процентов. Архивисты — 76 процентов. Плотники — 72 процента. Спасатели — 67 процентов. Есть, конечно, несколько рабочих мест, за которые не стоит переживать. Вероятность того, что компьютерные алгоритмы заменят к 2033 году археологов составляет всего 0,7 процента, поскольку их работа требует очень сложных типов распознавания образов и не приносит огромных прибылей, поэтому маловероятно, что корпорации или правительство сделают необходимые инвестиции для автоматизации археологии в рамках следующих 20 лет.Большинство из того, что дети в настоящее время изучают в школе, скорее всего станет неактуальным к тому времени, когда им исполнится 40.Конечно, к 2033 году, скорее всего, появится множество новых профессий — например, дизайнеры виртуальной реальности. Но такие профессии, вероятно, потребуют гораздо больше творчества и гибкости, чем текущие работы, и неясно смогут ли 40-летние кассиры или страховые агенты стать VR-дизайнерами (попытайтесь представить себе виртуальный мир, созданный страховым агентом!). И даже если они это сделают, темпы прогресса таковы, что в течение следующего десятилетия им, возможно, придётся снова переучиваться. В конце концов, алгоритмы могут превзойти людей в проектировании виртуальных миров. Главная проблема — не создание новых рабочих мест. Главная проблема заключается в поиске работ, которые люди выполняют лучше, чем алгоритмы.Так как мы не знаем, как рынок труда будет выглядеть в 2030 или 2040 году, сегодня мы не знаем, чему учить наших детей. Большинство из того, что они в настоящее время изучают в школе, скорее всего станет неактуальным к тому времени, когда им исполнится 40. Традиционно жизнь делится на две основные части: период обучения, а затем период работы. Очень скоро эта традиционная модель станет совершенно устаревшей, и единственным способом остаться в игре для людей будет условие постоянного обучения на протяжении всей их жизни, постоянное саморазвитие. Многие, если не большинство людей не смогут этого сделать.Предстоящее технологическое процветание, вероятно, сделает возможным обеспечение питания и жизнедеятельности людей без каких-либо усилий с их стороны. Но как обеспечить их занятость и удовлетворение? Одним из вариантов могут стать наркотики и компьютерные игры. Ненужные люди смогут тратить все больше времени в трёхмерном мире виртуальной реальности, что даст им гораздо больше эмоций чем грубая реальность улицы. Однако такое развитие событий нанесло бы смертельный удар по либеральной вере в святость человеческой жизни и человеческого опыта. Что свято для бесполезных бомжей, которые проводят свои дни, потребляя искусственные переживания?Некоторые эксперты и мыслители, такие как Ник Бостром (TED Talk: Что происходит, когда наши компьютеры станут умнее, чем мы?), предупреждают, что подобная деградация человечества маловероятна, ибо как только искусственный интеллект превзойдёт человеческий, то он может просто уничтожить его. ИИ, скорее всего, сделает это либо из опасения, что человечество отвернётся от него и попытается вытащить вилку из розетки, либо будет преследовать какую-то непостижимую цель. Ведь людям будет чрезвычайно сложно контролировать мотивацию системы, более умную, чем они сами.Даже предварительное программирование ИИ с кажущимися благими целями может иметь неприятные последствия. Один популярный сценарий представляет собой корпорацию, разрабатывающую первый искусственный суперинтеллект и дающую ему невинное задание, такое как вычисление числа пи. Прежде чем кто-либо поймёт, что происходит, ИИ захватит всю планету, уничтожит человеческую расу, запустит экспансию во все концы галактики и превратит всю известную вселенную в гигантский суперкомпьютер, который миллиарды и миллиарды лет будет вычислять число пи точнее и точнее. В конце концов, это божественная миссия, которую дал ему Творец.Материал — выдержки из книги Ювала Ноа Харари«Homo Deus: Краткая история будущего». Оригинал: TED

16 марта, 21:34

Рэй Курцвейл: “Сингулярность наступит в 2029 году и сделает людей лучше”

Как только человечество выгрузит свое сознание в облако, нам не придется держать в уме лишнюю информацию. Новые области мозга начнут развиваться, люди станут умнее, талантливее и привлекательнее, прогнозирует футуролог и идеолог сингулярности Рэй Курцвейл. читать далее

19 февраля, 22:42

Топ-100 бесплатных онлайн-курсов ведущих мировых университетов

Онлайн-образование продолжает набирать популярность ввиду своей практичности (можно не выходить из дома) и доступности (знания, за которые не нужно платить). Конечно, дипломы за прохождения курсов в интернете не дают, но в современном мире «корочка» — […]

11 февраля, 08:17

Искусственный интеллект (Matrix has you)

Первая страна или организация, которые разработают прототип искусственного интеллекта второго уровня, - получают невероятные конкурентные преимущества во всех ключевых сферах человеческой жизни.Области применения ИИ самые различные:Автоматическая классификация текста, фото, аудио и видео. Например, алгоритм по паттернам анализирует коллекцию фото и в автоматическом режиме группирует в разделы «люди», «природа», «животные», «строения» и т.д. Или алгоритм, который автоматически в видео потоке находит вероятное соответствие определенной тематике с целью блокировки или чего-то еще, т.е. порно, сцены с насилием и экстремистского характера и прочее. Или анализ звуковой дорожки, чтобы найти элементы схожести, плагиата с лицензионными произведениями.Автоматический поиск и фильтрация информации по заданным условиям. Например, выборка и группировка по приоритету (с созданием развесовки) всей информации, которая может соответствовать террористическому характеру или определенным новостям, событиям. Активно применяется в поисковых системах и спецслужбами.Автоматическое создание типичного новостного контента, как правило примитивная обзорная аналитика в экономических и финансовых областях, созданная роботом.Создание развитых торговых алгоритмов на финансовых рынках для предсказания наиболее вероятного движения цен после анализа исторических паттернов.Анализ страховых случаев в пределах заданных условий. Вероятность страхового случая, исходя из экзогенных и эндогенных факторов.Медицинская диагностика. Предсказание риска заболевания, исходя из анализа опыта медицинской практики с классификацией причин заболевания после ввода расширенных кондиций пациента.Распознавание речи и перевод текста.Поиск и блокировка потенциальных вредоносных программ эвристическим методом, что активно применяется в передовых антивирусах.Разработка игрового искусственного интеллекта для игровых ботов (NPC, компьютерных противников).Разработка ИИ для оппонента человеку в шахматах, покере и любых других логических играх.Прогнозирование погоды.Высокоуровневый анализ потоков. Активно может применяться в анализе автомобильного трафика, чтобы грамотно калибровать светофоры и расширять дороги в соответствии с пропускной способностью и дорожной активностью: торговой активности, чтобы вовремя распределять товары на складах и полках магазинов, в ЖКХ, энергетике и т.д.Различные компьютерные собеседники и консультанты, чтобы заменить людей в call центрах.Многие другие виды и подвидыИскусственный интеллект условно можно подразделить на прототип первого, второго и третьего уровня.Искусственный интеллект первого уровня (ИИ 1) – это высокоразвитая алгоритмическая среда, позволяющая анализировать сверх большие массивы информации по заданным мат.моделям и критериям. ИИ первого уровня активно применяется в настоящее время среди различных государственных и корпоративных структур в областях, которые были указаны выше.Фактически, фундаментом ИИ 1 является высокоуровневый анализ паттернов, массивов данных и поиск соответствия с целью группировки, классификации, синтезирования информации и последующего прогнозирования. Есть спектр входных условий, есть формализованный накопленный исторический опыт, записанный машинным языком и есть развитый алгоритм анализа информации.В широком смысле ИИ 1 не является полноценным ИИ, т.к. это лишь комплекс жестко фиксированных скриптов и алгоритмом, которые написаны программистами и управляются операторами.Например, кто играл в компьютерные игры знает, что компьютерные противники достаточно тупы и предсказуемы, даже в современных ААА проектах. Это не является полноценным ИИ, а лишь набор скриптов, команд действия и взаимодействия с окружающей средой. Например, вы попали в поле зрения игрового бота, у которого программистом заданы весьма ограниченные действия (отойти, пригнуться, бежать, стрелять и т.д.), которые в свою очередь зависят от игрового окружения. Но компьютерный противник не действует самостоятельно, он не мыслит подобно человеку, а функционирует в строго отведенных границах. По сути, это набор скриптов, написанных на основе циклических процедур while..do или условных if...then.Искусственный интеллект второго уровня (ИИ 2) отличается от ИИ 1 тем, что:Способен действовать вне рамок заданных алгоритмов, скриптов программистов и без контроля оператора.Способен к эффективному анализу окружающей среды и само-эволюции, саморазвитию. Ключевое слово «само». Все существующие ИИ развиваются исключительно в допустимых границах человека и руками человека. Более совершенный ИИ способен модифицировать свои алгоритмы самостоятельно, обучаться без воздействия человека.Способен к коррекции ошибок и поиску оптимального пути развития.Если интегрировать все эти три условных различия, то ИИ 2 – это высокоразвитая компьютерная интеллектуальная среда, которая способна к автоматической модификации собственных алгоритмов через высокоэффективный механизм коррекции ошибок и оптимизации наилучшего вектора эволюции. Главной особенностью ИИ 2 является способность работы без участия оператора и программиста. Самомодифицирующиеся код. На данный момент это в большей степени футуризм, хотя уже существуют концепты ИИ 2 на основе нейронных сетей.В чем ключевое преимущество ИИ 2? Неограниченный и в каком-то роде пугающий потенциал к развитию и теоретическая способность к научно-исследовательскому потенциалу, т.е. созданию осмысленного контента.Сколько времени нужно для эволюции и образования человека до момента генерации научно-технический открытий? Как минимум 20 лет (от 5 до 25), но в среднем 30 лет. Сколько страниц научной литературы способен прочесть и осмыслить средний ученый за свою жизнь? 15-20 тыс? А сколько запомнить? 3-5%?А теперь представьте себе вычислительную производительность мега компьютеров, которые способны за секунду прорабатывать миллионы страниц текста и все досконально анализировать и запоминать. Это происходит сейчас, но тот накопленный груз информации просто «лежит» себе на электронных схемах и магнитных дисках. Потому что все эти мега массивы данных надо как-то структурировать, формализовать, синтезировать и анализировать. Проще говоря, все современные мега компьютеры просто не способны эту информацию анализировать и применять без человеческих мозгов.Собственно, к чему я веду? Развитая алгоритмическая база ИИ 2 и способность к эволюции вместе с чудовищной вычислительной производительностью и практически безграничной памятью создает невероятный плацдарм для сверх разума. Грубо говоря, тот научный путь, который проходит человек за свою жизнь - мега компьютер и ИИ 2 на его базе может пройти за доли секунды. Причем интенсивность обучения и развития ИИ 2 может идти по экспоненте, т.к. последующие итерации будут делать все меньше ошибок. Все это создает невероятный гипотетический и на данный момент теоретический потенциал для эволюции искусственного комплекса, который сделает сверхмощный рывок в исследовательской деятельности.И тут же появляется на горизонте прототип искусственного интеллекта третьего уровня (ИИ 3) или кибернетического организма.Когда темпы эволюции ИИ 2 станут настолько быстрыми и мощными, что ИИ приобретет функции самосознания и самоидентификации, тем самым наделяя ИИ 3 мотивационной составляющей и способностью самостоятельно принимать решения в рамках цельности (т.е. постановки целей и задач). Однако, это чрезвычайно обширная темпа для обсуждения, которая не поместится в рамках одной статьи.Тем не менее, что стоит знать? ИИ начального уровня уже активно применяется в многих сферах экономической, финансовой, игровой и разведывательной деятельности. Он уже есть, хотя представляет собой «лишь» комплекс высокоуровневых скриптов и алгоритмов, но не способен к эволюции и самостоятельной деятельности без операторов и программистов. Существуют определенные движения в нейро-сетях и созданию самообучающегося ИИ, которые находятся преимущественно на стадии концептов, не доведя даже до прототипов. Хотя некоторые примитивные образцы можно найти.Первые предметные упоминания об ИИ появились еще в середине 20 века, однако развитие началось лишь в 21 веке, т.е буквально недавно. Даже в 90-х они были в зачатке. Учитывая те темпы научно-технического прогресса, которые имеем, есть основания полагать, что прототип ИИ 2 может появиться к 2025 году. Дальнейшие события очень непредсказуемые. При определенных обстоятельствах ИИ 2 может за очень короткий период времени формализовать весь тысячелетний опыт человечества во всех областях науки, культуры и техники!! Но что будет дальше? Сейчас это пока из области научной фантастики, но и компьютеры и интернет тоже были фантастикой, даже в 80-е года 20 века! Даже поколение одно не прошло.

02 февраля, 13:10

Управляемые компьютером хедж-фонды вышли в лидеры

Искусственный интеллект вновь демонстрирует свое могущество: хедж-фонды, которые используют алгоритмы, выходят в лидеры рейтингов эффективности, что, тем не менее, делает математиков и программистов главными компонентами успешного инвестирования