На сегодняшний день искусственный интеллект – это лучший способ автоматизации любых задач, поэтому миллионы программистов борются за развитие всё более сложного и умного IT-разума. Но что будет, если он решит самостоятельно вредить?
На ум автоматически приходят картинки из фильма «Терминатор», хотя такой исход деятельности искусственного интеллекта возможен, но маловероятен, учёные Google разрабатывают «кнопку безопасности», а точнее предохранитель, который сработает в случае нанесения программой вреда.
Для этого спецы пытаются установить «спусковой механизм», реагирующий на вредоносное поведение ИИ и прерывающий его насильственным путём. Сигналами к прерыванию должен распоряжаться только человек.
Такая система эффективна только в определённых случаях – в случае, если ИИ бесконтрольно разовьётся до определённого уровня, то сможет удалить кнопку прерывания.
Исследования в большей степени теоретические, так как не существует универсального ИИ, по крайней мере, пока. Но в будущем кнопка «стоп-машина» будет просто необходима, что и учитывают разработчики уже сегодня в программных предохранителях.