Хокинг предупредил о проблемах, к которым приведет развитие искусственного интеллекта

    Один из самых известных ученых современности Стивен Хокинг объяснил, почему он не приемлет развитие технологий искусственного интеллекта. Он считает, что сверхумные машины будут смотреть на людей как на муравьев, которые мешают выполнять определенные задачи.

    Во время разговора с пользователями портала Reddit он отметил, что не думает, что подобные машины – злые существа, которые хотят уничтожить все живущее на Земле из-за своего превосходства. По мнению Хокинга, проблема заключается в том, что машины, наделенные ИИ, попросту не будут замечать людей.

    По его словам, ключевой риск ИИ заключается не в злобе устройств, а в их компетенции, способной в несколько превысить человеческую. Очень умный ИИ сможет отлично решать задачи, и в случае, если цели его и человека не будут совпадать, у человечества возникнут большие проблемы.

    Свои слова ученый иллюстрирует примером работы мощного ИИ при управлении ГЭС. Для машины, отмечает он, будет важно, как много энергии сможет вырабатывать система, но не судьбы людей. «Если вам нужно поднять уровень воды и в результате этого один муравейник будет затоплен, то проблемы утопающих насекомых вас вряд ли будут беспокоить», — говорит ученый, призывая не допустить ситуации, когда на месте муравьев окажутся люди.

    Чтобы решить эту проблему, Хокинг предлагает два варианта развития событий: замедлить разработку искусственного интеллекта или переключиться на создание разума, который решает исключительно узкоспециализированные задачи.

    Предыдущая статьяWindows ждут грандиозные изменения
    Следующая статьяУченые: На спутнике Сатурна зародилась жизнь
    Александр Владимирович
    Главный редактор издания ITBusiness. Эксперт по SDN, Cloud Computing, авиабезопасности и BigData