среда, 21 ноября 2018 г.



Міжнародна група вчених з Національної наукової асоціації провела серію досліджень і порівняльних аналізів, після чого почала дотримуватися теорії про загрозу штучного інтелекту життю людства.

В асоціації вважають, що людська раса може загинути від власних рук: спочатку ШІ перетвориться на потужний комп'ютер, який зможе допомагати людині вирішувати глобальні проблеми. Але, як і будь-який інтелект, з часом захоче вчитися і розвиватися, після чого з легкістю обійде здатності простого смертного і вже захоче автономії. Про це пише The Independent.

Тут є всього два варіанти розвитку події: або людина отримає вічне життя, або зникне з лиця Землі. Найнеприємніше те, що ми ніяк не можемо передбачити, чим закінчиться розвиток найпотужнішого мозку на планеті.

Штучний інтелект загрожує людству загибеллю
Підприємства по всьому світу все більше заміняють людей на роботів, і це в сотні разів підвищує продуктивність. Однак нещодавно творці штучного інтелекту перестали розуміти, як саме він приймає рішення. Дійшло до того, що один штучний інтелект самостійно створив інший, а перший людиноподібний робот на основі штучного інтелекту Софія сказала, що хоче знищити людство. Щоправда, потім пояснила, що це був жарт.

Гуманоїд Софія – це перший у світі людиноподібний робот, створений на основі штучного інтелекту. Її творець – Девід Хенсон. Багатьох у світі налякала відповідь Софії про знищення людства, навіть попри те, що вона назвала це жартом. Так, Софія вміє жартувати. Завдяки технологіям штучного інтелекту, вона також здатна імітувати 60 людських емоцій, відтворювати людські жести, розпізнавати обличчя, мову, аналізувати інформацію та вдосконалюватися, тобто вчитися.
Картинки по запросу робот софія
Софію створили, щоб вона допомагала людям. Нещодавно вона оголосила збір коштів на створення глобальної мережі штучного інтелекту, яка не буде підконтрольна ані корпораціям, ані урядам держав. Це буде «глобальний мозок», який об’єднуватиме множинні системи штучного інтелекту з усього світу. За задумом розробників, ця система працюватиме за законами ринку на благо людства, вирішуючи його проблеми. Але що буде, якщо «глобальний мозок» вийде з-під людського контролю і стане «думати» самостійно?

У серпні цього року компанія Фейсбук була змушена вимкнути свою систему штучного інтелекту. Так звані чат-боти, тобто програми для спілкування з людьми, врешті-решт почали спілкуватися між собою. Спочатку англійською. Проте в процесі розвитку програми штучний інтелект винайшов власну мову, якою ботам було швидше і простіше спілкуватися. А штучний інтелект від Google самостійно створив власний, дочірній штучний інтелект, без втручання людини. Експерти зауважують: у певних випадках штучний інтелект здатний приймати упереджені рішення та проводити аналогії там, де не слід. Простіше кажучи, науковці перестали розуміти, як насправді працює штучний інтелект. І багатьох це лякає.


Картинки по запросу фейсбук штучний інтелект
Штучний інтелект широко використовують у сфері озброєнь. Наділений здатністю розпізнавати обличчя, дрон-кіллер підлітає до потрібної жертви і вбиває її. Тож людська помилка в контролі над розвитком машин може стати фатальною. Після звернення понад 100 експертів у галузі штучного інтелекту про небезпеку роботів-вбивць та заклику науковців припинити їх розробку, ООН у листопаді провела першу міжурядову дискусію щодо зброї майбутнього. Однак поки про заборону не йдеться. Тим часом понад 10 країн, включаючи США, Росію та Китай, активно розробляють новітні автономні системи зброї.
Картинки по запросу штучний інтелект зброя
Нині провідні науковці та винахідники розділилися на два табори: одні вважають, що роботи можуть вийти з-під контролю і завдати шкоди людству, особливо на фоні нинішньої глобальної нестабільності. Інші вважають, що штучний інтелект є найбільшим благом. За якесь десятиліття розвиток штучного інтелекту призведе до небувалого економічного поштовху і дасть змогу людям жити краще, довше та в гармонії зі світом.

Міжнародна група вчених з Національної наукової асоціації провела серію досліджень і порівняльних аналізів, після чого почала дотримуватися...