Экология сознания. Годами соучредитель компании Apple Стив Возняк отрицал, что технологии, особенно искусственный интеллект, могут угрожать людям. Однако
Годами соучредитель компании Apple Стив Возняк отрицал, что технологии, особенно искусственный интеллект, могут угрожать людям. Однако в недавнем интервью изданию Australian Financial Review 64-летний изобретатель признал, что некоторые прогнозы начинают сбываться, а человекоподобные компьютеры представляют реальную опасность для человечества. Он даже пошутил: «Кем мы будем: богами, домашними животными или муравьями? Я не знаю».
Компьютеры собираются превзойти людей. Если мы продолжим создавать устройства для облегчения жизни, то в конце концов они станут сообразительнее нас и начнут избавляться от нерасторопных людей, чтобы эффективнее управлять компаниями, — заявил Стив Возняк.
По поводу угрозы искусственного интеллекта уже высказались такие известные личности, как Элон Маск и Стивен Хокинг. Оба входят в организацию под названием «Институт будущего жизни» (Future of Life Institute), которая недавно выступила с открытым письмом с призывом оценить риски, связанные с разработкой искусственного интеллекта (ИИ).
Авторы документа признают не только огромный потенциал ИИ, но и расставляемые им ловушки. В краткосрочной перспективе машинный интеллект, например, может оставить миллионы людей без работы.
Ранее в этом месяце глава электромобилестроительной компании Tesla Элон Маск заявил, что в ближайшие годы управляемые людьми автомобили могут оказаться вне закона. По его словам, роботы получат преимущество на дороге, а человек за рулем станет «слишком опасным» для участников движения.
Ученые опасаются, что высокоразвитые машины начнут учиться выполнять любую работу и будут постепенно вытеснять человека. Основания для беспокойства есть. Согласно прогнозу аналитической фирмы Boston Consulting Group, к 2025 году количество автоматизированных операций увеличится на 25 процентов. Наиболее ярко этот тренд сейчас выражен в Японии. опубликовано econet.ru
Источник: https://econet.kz/
Понравилась статья? Напишите свое мнение в комментариях.
Добавить комментарий