Людство може зайти надто далеко в гонці озброєнь з використанням штучного інтелекту
29/07/2015
Елон Маск, Стівен Хокінг, Стів Возняк і провідні світові вчені в галузі розвитку штучного інтелекту (ШІ) вважають, що людство може зайти надто далеко в гонці озброєнь і закликають зробити все можливе, щоб Світ не наздогнала катастрофа.
Волонтерська організація Future of Life Institute опублікувала відкритий лист, в якому закликає відмовитися від «гонки ІІ-озброєнь» (AI Arms Race).
Лист підписали більше тисячі вчених і провідних представників інформаційного бізнесу. Суть зводиться до того, що гонка озброєнь виходить на новий рівень: розробку та впровадження зброї з власним штучним інтелектом.
ІІ-озброєння може контролюватися здалеку без безпосередньої присутності живої людини в зоні бойових дій.
«Автономна зброя стане «автоматом Калашникова» майбутнього. На відміну від ядерної зброї, вона не вимагає дорогих або важкодоступних матеріалів, так що воно стане всюдисущим і дешевим для масового виробництва. Те, як скоро ця зброя з’явиться на чорному ринку – лише питання часу. Автономна зброя ідеально підходить для замовних вбивств, дестабілізації життя націй, підпорядкування населення і вибіркового винищення окремих етнічних груп», – йдеться в листі.
Автори повідомлення вказують і на явні переваги даного виду озброєння, які включають збереження людських життів. Але, в той же час, приходять до однозначного висновку, що ІІ-озброєння буде нести собою катастрофічну небезпеку для людства і новий виток гонки озброєнь слід негайно припинити.
Під відкритим листом підписалися видатні вчені у сфері розробки штучного інтелекту з безлічі країн світу. Крім цього, Елон Маск, Стівен Хокінг, Стів Возняк та інші відомі IT-підприємці висловилися на підтримку зупинки гонки ШІ-озброєння.
«Штучний інтелект може стати корисний людству в безлічі аспектів (…) Але запускати гонку ШІ-озброєнь – погана ідея, яка повинна бути відвернена за рахунок заборони розвитку автономного озброєння», – резюмують учені.
…