На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Настроение ТВ

3 469 подписчиков

Восстание роботов

Ночь, полупустая трасса, едет автомобиль. Управляет им беспилотная система. На дорогу выходит женщина, и машина хладнокровно сбивает её. Женщина погибает.

Это не сценарий фантастического триллера, а реальность. В марте 2018 года в США беспилотный автомобиль впервые в истории убил человека. Значит ли это, что искусственный интеллект пока не способен действовать самостоятельно?

Антон Бураков, робототехник:

– Искусственный интеллект появится в пределах 50 лет, никто ничего с этим не сможет сделать. Этот интеллект будет дружественным к людям. Но что, если какой-нибудь гениальный малолетний хакер в мамином подвале из-за несчастной любви напишет строчки кода, чтобы сделать его враждебным? Никто не сможет его остановить. Опасность искусственного интеллекта заключается в людях.

В беспилотном убийце, кстати, сидел оператор, который должен был предотвратить форс-мажор, но он на что-то отвлёкся. Что-то упустили и создатели автоматизированного полицейского. Его самоубийство наделало шума. В 2017 году робот, которого использовали для патрулирования и предотвращения преступлений, на глазах десятков людей забрался в фонтан и утопился. Неужели протест? Восстание машины?

Александра Родина, преподаватель робототехники:

– Вода могла показаться ему ровной поверхностью. У него там стоят различные датчики распознавания и тепловые сенсоры, но ведь мог сесть аккумулятор. А когда садится аккумулятор, соединения могут прерываться, поэтому он и решил, что вода – это тоже хороший асфальт, и поехал вперёд.

Самоуправством занялся и робот-участник эволюционного эксперимента. Учёные создали две группы машин: одни имитировали жизнедеятельность хищников, другие – травоядных. В процессе один из хищников просто-напросто сбежал с поля боя. Решение робота избежать насилия дало повод заподозрить его в эмоциональности.

Алексей Мельков, научный руководитель робошколы:

– Всегда хочется, чтобы робот что-то замыслил, но, когда начинаешь копаться в начинке этого робота и читать о том, что он из себя представляет, выясняется, что робот довольно прост, а его внутренняя оболочка подразумевает определённые действия.

Робот, которого придумали в Перми специально для конференций и промоакций, не так давно тоже удивил создателей. Белый киборг должен был тестировать некие действия в помещении. Оператор прикрыл дверь и ушёл. А робот, видимо, заскучал в одиночестве, покинул полигон и гулял по пермским улицам, пока хозяева его не отыскали. Но это счастливый случай. Одному из его искусственных коллег выход на автотрассу стоил жизни.

Антон Бураков, робототехник:

– Вышел водитель из одной из машин и снёс ему голову. Погибшего торжественно похоронили, а заодно учредили кладбище для роботов. Это были первые похороны робота.

Очевидно, восстания машин люди опасаются всерьёз. Страх стоил жизни Хитчботу. Этот робот-автостопщик стоял на обочине и просил водителей подвезти его. В дороге поддерживал милую несвязную беседу, а прощаясь, просил сделать с ним селфи. Хитч покатался немало, пока его не нашли полностью разбитым. Не знала наивная машина, что ловить попутки опасно для жизни.

Алексей Мельков, научный руководитель робошколы:

– Такие роботы часто становятся жертвами вандалов. На самом деле их жалко, потому что они несут социальную функцию. Это один из способов привлечь внимание общественности к социальной функции роботов.

При всей пользе роботизированных систем учёные уверены, что к 2030 году из-за киборгов 800 миллионов человек останутся без работы. Но пока не всем машинам удаётся справляться с возложенными на них обязанностями. Достаточно вспомнить нашумевший случай с роботом-пылесосом, трудившимся в Австрии. В поисках мусора он забрался на плиту и бесславно на ней сгорел.

Дарья Новикова, "Настроение"

 

Ссылка на первоисточник

Картина дня

наверх