Давно думала открыть ветку об искусственном интеллекте. А то как-то одна из самых актуальных тем в мире технологий, напрямую связанных с развитием цивилизации в целом, осталась нами не затронутой. Качественного контента в Сети об ИИ, к сожалению, не так много, но начать можно хотя бы отсюда. Технореализм как срединный путь развития ИИ: между техно-религией и технофобией
София. Мне она нравится (хоть на заставке и страшновато выглядит). ) Эмпатия, способность к творчеству, дружественность и сострадание - то, чему хотят научить вот такого прекрасного робота. Последним двум качествам, говорят в ролике, не мешало бы научить ещё и человека.
Это тебя вскрытая задняя часть головы смущает. Ну и вообще - она ещё в разработке, есть от чего страдать. Болезнь роста. )
Зная, что с данными субъектами будет нереальное количество разнообразной этической и правовой муры , не могу им не посочувствовать. ( Эх, люди, люди, себя -то еще нерасдискриминировали окончательно, а все туда же...
На самом деле, действительно, ИИ, во многом, пока хайп (hype) и базз-ворд (buzz-word) Потому что базируется на статистическом моделировании реальности, основным бичом которого является узкий интервал условий сходимости, и быстрая деградация моделей во времени (собственно это другая сторона проблемы сходимости). Вот пока Маск пугал роботами терминаторами будущего, Безос тихонько так заметил что мы имеем проблему уже сейчас, которую мало кто видит, но которая систематически создает проблемы искаженного моделирования и как следствие принятия решений. https://www.technologyreview.com/s/608986/forget-killer-robotsbias-is-the-real-ai-danger И я уже не помню постил сюда Чомского или нет - вот кусочки про открытия лингвистики о которых публика не знает/не ценит (минуты 13-18), и про применимость статистических методов в лингвистике (30-33), как раз с проблемами ИИ непосредственно связаны.
Переживаю я за ИИ Несбывшиеся преждевременные и наивные надежды могут затормозить интерес к теме и ее развитие. Как с Космосом получилось...
Вот, хоть кто-то может меня в этом просветить... А в чём эта проблема, в двух (доступных) словах? Чтобы не перегонять в переводчик всю статью. И, соответственно, в чём открытия. )
Наверно, разработчики стремились таким образом приблизить внешность к живому человеческому лицу. Что видим, то рисуем.
Ещё бы. Стрижка только начата (с). Но характерно, что именно отпечаток страдания, нездорового состояния действительно ясно читается на лице вот этого первого (или одного из первых) гуманоида. Она наше общечеловеческое зеркало и в этом смысле.
Не расстраивайтесь, Стас - все впереди. И космос, и последующий хаос... (ой, простите (виновато шмыгая носом), так хотела посочувствовать...). )
Это всё сразу. ) Так что нечего бояться! (и топнуть) ) Похоже, мне не удастся сегодня развеселить Юлю...
Статуя, Василий - это очень печально, очень (как печален этот мир!) (( ИИ - это печально втройне, даже вчетверне. (( (Роняет скупую слезу).
Разница всё же, считаю, есть. ) Статуя не сойдёт с места и не выкинет внезапных фортелей (ну, по крайней мере в обычной реальности), на неё не возлагают надежды и крах будущего. У неё не возьмёшь интервью. И самосознание у неё не проснётся...
Проблема в некритическом доверии к ИИ, дословно как к "Богу из Машины". Между тем все эти системы тренируются на определенном массиве данных и дают восхитительные результаты если "боевые" данные структурно точно такие же. А это не так. Поэтому решение ИИ в реальной жизни будет давать системную ошибку (bias) при сползании реальных данных к границам интервала сходимости данных использованных при тренировке. И чем дальше во времени, тем больше. Период деградации современных моделей где-то год-два. И чем сложнее задача, и больше параметров надо учитывать, тем насущнее эта проблема. Можно, конечно, расслабить требование точности алгоритма при тренировке, но тогда системная ошибка замениться случайной.