Менше турбуватися про маршем роботів, більше про Techno паніка | Кенан Малик
Опубликованно 26.03.2018 04:18
Робот-пилосос інфільтратів німецького Мінфіну шляхом змішування з басейном законних машин. Спочатку виконуючи рутинні завдання чищення, робот, за допомогою розпізнавання осіб, визначає міністр фінансів. Він підходить до неї і детонує прихована бомба.
Це один зі сценаріїв, накидав в новій доповіді під назвою зловмисного використання штучного інтелекту. Проведений 26 дослідників з університетів, дослідницьких центрів та громадськими організаціями в Європі і США, це є останнім у серії досліджень, що попереджають про небезпеку ІІ.
"Розробка повноцінного штучного інтелекту", Стівен Хокінг стверджував, що "може означати кінець людської раси." Елон Маск, мільярдер, засновник і виконавчий директор spacex і Тесла, припустив, що "ми викликання демона".
Такі апокаліптичні страхи не легко піддаються раціональної дискусії. Вони складають заснований на рахунках похмурому майбутньому, що ви або вірите, чи ні, так як ви або вірите в чотирьох вершників Апокаліпсису, як передвісники Страшного суду чи ні.
Новий звіт відрізняється. Він дивиться на технології, які вже доступні чи будуть у найближчі п'ять років, і визначені три види погроз: "цифровий" (витончені форми фішингу або злому); "фізичний" (перепрофілювання дрони або роботи для шкідливих закінчується) і "політичну" (нові форми спостереження, або використання підроблених відеороликів, щоб маніпулювати громадською думкою в небачених раніше масштабах").
Те, що ми зіткнулися з, цей список говорить про те, що не є екзистенційною загрозою для людства, але гостріше форм з проблем, з якою ми вже боремося. ІЇ слід розглядати не в плані супер-розумні машини, але як розумний біти програмного забезпечення, що в залежності від людини, що володіє нею, може бути використаний як для добра чи зла. Фотошоп з нами вже 30 років. Немає нічого нового в створенні підроблених зображень
Навіть там, де ИИ може бути використана для шкідливих закінчується, однак, потрібні більш детальні обговорення. Розглянемо випадок "deepfake" відео, створених за допомогою маніпуляції програмного забезпечення, про який нещодавно була паніка. Таке програмне забезпечення в даний час використовується в основному в порно, щоб зшити голову знаменитості до тіла порнозірки. Це не може бути довго, хоча, перш ніж створювати фейк "політичні" відео. Тепер це можливо, використовуючи такі прийоми, в буквальному сенсі поставити слова в чужий рот. Як довго, перш ніж ми бачимо відео Барак Обама "показово", що він народився в Кенії, або Дональд Трамп "визнання" бути руським шпигуном?
Хоча є, нічого нового у створення підроблених зображень. Фотошоп з нами вже 30 років. Повсюдність маніпулювати образи створені в рамках державного і велику здатність розрізняти фейки і більш скептичні очі при перегляді фотографій. Фотошоп застосовують порівняно рідко в підтримку фальшивих новин.
Те, що диски підроблені новинами не тільки з технічної, але соціальні зрушення: фрагментація суспільства, розмивання єдиній суспільній сфері, готовність прийняти будь-яку історію, яка вкладається в одне світогляд і відмовитися від будь-яких, які не. Нас повинно турбувати не просто технологія підроблені відео, але і соціальні причини, що люди реагують на підробки, як вони роблять.
Нам необхідно почуття перспективи, коли справа доходить до фізичних загроз від AI. Розглянемо сценарій для чищення бот багаторазово використовувати в якості бомби. В цьому випадку, має сенс, влада повинна бути настільки слабким, що вони не зуміли перевірити на наявність вибухових речовин в урядові будівлі. Якщо бот може підірвати себе перед міністром, так що людина може. Зовнішня проблема не в технології, але й безпеки. Зростання ИИ може підвищити кіберзлочинності і загроз безпеки, доповідь попереджає Детальніше
Задум терористів, використовуючи роботи або дрони-це правдоподібно (хоча і безпілотники, щоб вбивати і калічити сьогодні це в основному в ім'я "війни з терором"). І ще, урок за останні два десятиліття полягає в тому, що поки влада в паніці про терористів придбання високотехнологічного потенціалу, такі як брудні бомби, в реальності тероризм все викликало страх і руйнування більш низькими технічними засобами, такі як водіння автомобіля в натовпу.
Небезпека стати занадто одержимі загроза ШІ полягає в тому, що ми не бачимо, що багато "рішення" не менш проблематично. Ми прийшли до розуміння більшого державного нагляду ціна тримати Ай "безпечний", або, як Зловмисне використання штучного інтелекту дозволяє припустити, погодьтеся, що певні форми результатів досліджень ШІ буде обмежений обраних осіб і установ.
Це що, яке суспільство ми хочемо? Це може також призвести до антиутопії? Це теж дискусія, ми повинні мати.
•Кенан Малик став оглядач спостерігача
Категория: Финансы