Откуда этот компьютер узнал Медиа | Двутгодник | два раза в неделю

  1. Сара В. Ньюман
  2. Цифровые культуры 2018 ГИБРИДНАЯ МАТЕРИЯ

ADA BANASZAK: во время предстоящей конференции Цифровые Культуры Вы сможете посмотреть свою инсталляцию «Будущее секретов». Какова его работа?
САРА У. НЬЮМАН: В основе этой работы лежит очень простой - по крайней мере, с технической точки зрения - обмен между человеком и машиной. В центре установки находится компьютер, на экране написано: «У вас есть секрет? Введите это здесь. " Вы можете написать все, что приходит на ум. Активное участие не является обязательным, но оказывается, что большинство людей в этой ситуации охотно делятся своими секретами. Когда устройство получит ваше сообщение, маленькая принцесса, которая находится рядом с вами, напечатает для вас секрет другого человека. В Варшаве частью инсталляции станет звуковая станция, где участники услышат секреты, прочитанные машиной.

Какими секретами люди чаще всего делятся с вашей машиной?
Секреты очень разные - некоторые забавные, некоторые серьезные, иногда даже мрачные. Многие из них о любви, сексе и предательстве, были признания типа «У нас роман, а в субботу мы убегаем из страны». Часто повторяющаяся тема - несбывшиеся мечты или всевозможные сомнения или фобии. Один из людей написал, что ей кажется, что все, кроме нее, являются роботами, но она хранит ЛСД в философских книгах. Некоторые доверяют машине своих детских преступлений («Я накормил кота золотой рыбкой моего отца», «В средней школе я издевался над одноклассниками»), как будто связанная с ними вина продолжала преследовать их. Это, пожалуй, самый удивительный вид признаний - рассказывать историю о том, что произошло в возрасте от нескольких до дюжины лет, и о том, что у нас не хватает смелости рассказать кому-то еще.

Сара В. Ньюман

Творческий исследователь metaLAB в Гарвардском университете, она также работает в Центре исследований Беркмана-Кляйна в Интернете и обществе. Он создает художественные инсталляции и разрабатывает проекты, касающиеся роли технологий в культуре, творчески и критически исследуя важность постмодернизма. Она представила свои работы в Нью-Йорке, Сан-Франциско, Майами, Чикаго, Берлине и Риме и участвовала в резиденциях в Германии и Швеции. В ее нынешних работах рассматриваются социальные и философские аспекты искусственного интеллекта, специфические точки соприкосновения между «человеком» и «нечеловеческим» и роль искусства как средства вовлечения диалога и взаимодействия с реципиентами.

Почему люди так легко обмениваются даже интимной информацией с компьютерами или смартфонами, поскольку большинство из нас знает, что почти за каждой программой стоят специалисты по маркетингу и корпорации, собирающие все возможные данные?
«Будущее секретов» обеспечивает по-настоящему анонимное общение, в то время как готовность, с которой вы говорите, обмениваться данными о себе, даже с осознанием того, что их контролируют и контролируют, вытекает из специфики среды. Разные способы выражения допускают разные стороны нашей личности - если я выберу камеру в качестве инструмента своей работы, я получу другой эффект, чем если бы я попытался представить то же самое с помощью кисти и холста; То же самое относится и к общению между людьми, просто посмотрите на различия между разговором и письмом. Быть онлайн дает вам так много совершенно новых и разных возможностей, что мы решаем их использовать, в то же время ставя под угрозу нашу конфиденциальность. Подумайте, что будет потеря, если вы не сможете выразить себя в Интернете! В обоих случаях - как при обмене информацией в Интернете, так и при сохранении конфиденциальности, оставаясь в автономном режиме - мы что-то теряем.

В связи с этим постоянным наблюдением, могут ли алгоритмы глубокого обучения , отвечающие за показ рекламы или подсказывать нам вопросы в онлайн-поисковой системе, знать о нас больше, чем мы сами о себе?
Они, вероятно, знают о нас много вещей, которые мы не осознаем, потому что они следуют и анализируют наше повседневное поведение гораздо точнее, чем мы сами. Давайте не будем забывать, однако, что мы приписываем различным технологическим системам свободу действий и интенциональность, которых они обычно не имеют. Когда в мире происходит что-то совершенно случайное, люди приписывают это случайности. Но когда машина производит информацию, независимо от того, происходит ли это случайно или нет, большинство из нас убеждены, что за этим стоит причина или мысль. Я изучаю это явление в своих работах, создавая неоднозначные ситуации, в которых трудно оценить, насколько реально машина или система знает. Мы разрабатываем наши собственные значения. Я думаю, что замечая этот механизм, мы можем многое узнать о наших предрассудках, ожиданиях, надеждах, страхах и предположениях. Эта комбинация точек со ручными сценариями - очень человеческая тенденция, в которой алгоритмы и другие непрозрачные процессы идеально вписываются. Мы приписываем интенциональность системам, которые мы не понимаем.

То, о чем вы говорите, напоминает мне о паническом освещении в СМИ в прошлом году, разработанном Facebook алгоритмы искусственного интеллекта, которые изобрели свой секретный язык и по этой причине они стали настолько опасными, что их создатели решили их ликвидировать. Конечно, позже выяснилось, что это была просто программная ошибка, которая отразилась на тарабарщине, производимой якобы заговорщиками. «Будущее секретов» также вызывает такие реакции? Люди читают секреты, напечатанные компьютером, как сознательный ответ на их сообщения?
Конечно. И, кроме того, иногда они правы! Когда я впервые показал эту инсталляцию - в 2016 году в Музее изящных искусств в Бостоне - люди, посещающие ее, получали секреты-ответы совершенно случайно, но я все еще слышал, как люди спрашивали: «Откуда этот компьютер узнал ...?». Откуда этот компьютер узнал, что это отличается от моих секретов? Откуда он знал, что я думаю об этом? Я решил немного расширить программу, и с тех пор некоторые ответы фактически относятся к секрету, оставленному кем-то. Но поскольку алгоритм не идеален - просто немного сложнее, чем был изначально - иногда секрет, выходящий из машины, не совсем подходит для секрета, вставленного в него. Это заставляет людей задуматься о том, насколько умна эта машина и как много она знает об этом.

«Будущее секретов» Сары Ньюман, Юг от Southwest, Остин, Техас, 2018 / фото С. Ньюмана

Может быть, они хотят, чтобы машина, которой они доверяют, была эмпатичной, чтобы показать им понимание?
Я думаю, что не в этом случае. Я пытался построить установку как можно более нейтрально, мой компьютер не очень выразителен. Я хотел, чтобы работа касалась не эмпатии алгоритмов, а эмпатии людей. Иногда вместо того, чтобы хранить напечатанный секрет для себя, люди помещают его в видимое место, чтобы другие могли его прочитать. Бывает, что другие участники идут по их стопам, и установка расширяется до таблицы, написанной с секретами. В такой ситуации трудно не думать о том, не принадлежит ли один из них, например, человеку, который сидит рядом с вами. Люди обнаруживают в себе забытые слои эмпатии и начинают чувствовать себя более связанными с другими.

Предложение эмпатии - по случаю вашей работы " Моральный Лабиринт « Устанавливая философские вопросы о людях и машинах, вы спрашиваете, может ли развитие искусственного интеллекта сделать людей более честными, смиренными и сострадательными.
Сама технология не заставит нас начать действовать более этично. Если мы создаем программы, которые будут принимать решения в будущем от имени людей, нам нужно встраивать их в определенные системы ценностей, иначе они могут нанести большой ущерб на пути к цели. Для ясности: этого не произойдет, потому что они будут злонамеренными или будут иметь дурную волю, потому что алгоритмы не могут быть плохими в моральном смысле, а потому, что программы оптимизированы для целей и всегда будут выбирать наиболее эффективный способ достижения этого, - главное - с учетом параметров и ограничений, которые будут им даны при входе. Вот почему машины должны «прямо» говорить, какое поведение недопустимо, например, вы не можете делать тесты на животных, вы не можете разрушать природную среду. И именно поэтому так важно, чтобы мы, как люди, определяли свои приоритеты. Прогресс даст нам возможность саморефлексии и межкультурного диалога в сочетании с технологическими достижениями.

Приведет ли этот диалог к ​​созданию глобального и основанного на консенсусе набора правил, или будущее ИС - много разнообразного и локального искусственного интеллекта?
Когда я думаю о том, что может произойти, на ум приходит документ, являющийся результатом международного соглашения - Всеобщая декларация прав человека - многие из этих законов регулярно нарушаются, но это наиболее близко к тому, что мы могли бы создать в качестве основы для развития ИИ. Нам нужен базовый список правил, с которыми согласны большинство людей в мире, и первым шагом к созданию такого документа является информирование людей о том, с какими проблемами связано развитие технологии искусственного интеллекта, пока не станет слишком поздно.

Цифровые культуры 2018
ГИБРИДНАЯ МАТЕРИЯ

Международная платформа для встреч польских художников с зарубежными создателями и культурными менеджерами. Программа междисциплинарных дебатов и презентаций фокусируется на четырех основных направлениях: компьютерные игры, захватывающее рассказывание историй, цифровые архивы и современная музеология. Конференция, организованная Институтом Адама Мицкевича, направлена ​​на приобретение международных партнеров для польских проектов, расширение рынков сбыта для польских производств и повышение признания польских цифровых художников за рубежом.
24-25 сентября 2018 г., Варшава
http://digitalcultures.pl

Представьте, что ученые и инженеры работают над сложной программой, основанной на искусственном интеллекте и подключенной к сети, цель которой - заставить рак исчезнуть с Земли Представьте, что ученые и инженеры работают над сложной программой, основанной на искусственном интеллекте и подключенной к сети, цель которой - заставить рак исчезнуть с Земли. В начале своей работы программа обрабатывает данные, изучает, создает даже несколько эффективных формул лекарств - мы не совсем знаем, как, потому что алгоритмы самообучения "Черные ящики" - но все идет гладко. Пока программа не заметит, что раком страдают только живые люди, поэтому для удаления рака решается убить всех людей, используя их сетевое соединение со всеми ядерными реакторами в мире. Хорошо, этот пример является преувеличением, потому что никто не был бы таким умным и глупым одновременно, чтобы создать такой сильный ИИ и дать ему такую ​​сформулированную единственную цель, но я думаю, что он хорошо иллюстрирует, как учится искусственный интеллект. Если мы не дадим ей правильные ориентиры, может произойти что-то действительно плохое.

Группа ученых из Технологического института Джорджии учит нейронные сети социальных условностей с помощью историй , Возможно, взгляд на искусственный интеллект так же, как мы хотели бы взглянуть на вашего ребенка, мог бы помочь создать чуть более дружественные для человека и дружественные планете программы?
Я думаю, что эта аналогия полезна, и мы уже рассматриваем СИ таким образом, хотя бы потому, что некоторые из этих систем учатся. В то же время это сравнение не так очевидно. Родители обычно хотят, чтобы их дети были лучше, чем они сами, чтобы в процессе обучения они имитировали свои преимущества, а не недостатки. Когда мы думаем об искусственном интеллекте в этом контексте, мы должны спросить себя: хотим ли мы, чтобы эти системы были такими же, как у человека, или, может быть, намного лучше? В первом случае мы должны рассмотреть, зачем вообще развивать эту технологию, во втором - где наше место в этих отношениях?

Есть еще одна чрезвычайно интересная проблема, касающаяся искусственного интеллекта, который учится, подражая человеческому поведению или языку. Иногда случается так, что вы говорите своему ребенку, что не должны лгать, и со временем вы поймаете вас на лжи. В этой ситуации, должен ли ваш ребенок - или ваша программа - принять то, что вы ему сказали, или то, что вы сделали в качестве руководства? Проблема искусственного интеллекта, обучение которой становится неискренней и обманчивой, очень актуальна. Это было хорошо показано в научной фантастике , например в фильме " Ex-Machina ».

Моральный лабиринт Сара Ньюман, фестиваль Ars Electronica, Линц, Австралия, 2018 "Моральный лабиринт" Сара Ньюман, фестиваль Ars Electronica, Линц, Австралия, 2018

Наши (часто глубоко скрытые) предрассудки также являются большой проблемой, как показано, например, знаменитая история Google Photos который автоматически подписал фотографию чёрной пары «гориллы», потому что он был ученым только для того, чтобы узнавать людей на фотографиях людей со светлым цветом кожи. Расизм инженеров одной из крупнейших технологических компаний был обнаружен эффектным образом. Как разработчики программ на базе ИС, в основном белые люди из западных стран, должны решать эту проблему?
Ответственность не должна лежать исключительно на создателях. Должно быть международное учреждение, задачей которого было бы установить стандарты для наборов данных, из которых извлекаются алгоритмы, предпочтительно на основе консультаций с различными социальными группами, чтобы избежать создания материалов, в которых иногда отражаются даже бессознательные предрассудки. Я сейчас работаю с группой, которая только что начала прототипировать этикетки для наборов данных, аналогичных тем, которые сообщают нам о пищевой ценности пищи. Это интересный эксперимент.

Если бы создатели на основе СИ должны были войти в ваш моральный лабиринт перед началом работы, какие вопросы вы бы им задали?
Так же, как и все остальные. Цель этой работы - показать, как наши автоматические, быстрые ответы на кажущиеся очевидными вопросы находят отклик в контексте технологических проблем и как они перестают быть очевидными или даже одинаковыми в этом свете. Было бы замечательно, если бы люди, проектирующие искусственный интеллект, приняли участие в этой инсталляции - они могли бы немного лучше осознать свои решения и, возможно, немного замедлиться, чтобы спросить мнение или обсудить с кем-то за пределами своей области. «Моральный лабиринт» должен заставить нас понять, что мы не идеальны. Очень важно иметь эту мысль за головой - особенно если вы создаете что-то, что повлияет на жизнь многих людей.

Как вы видите роль искусства и свою роль художника в изучении предмета искусственного интеллекта?
Я вижу две основные тенденции в искусстве, связанные с СИ. Первый представлен художниками, которые используют эту технологию для создания работ, например, алгоритмических изображений - это чрезвычайно интересно и вызывает много вопросов об авторстве и авторском праве. Второй - к которому я принадлежу, среди прочих - собирает художников, которые рассматривают искусство как инструмент для обсуждения искусственного интеллекта. Их работы, которые часто создаются без использования каких-либо новых технологий, призваны поставить перед широкой аудиторией социальные, философские и культурные проблемы, которые в связи с развитием ИИ требуют переосмысления.

Все вокруг меня все еще говорят о новых технологиях, но большинство людей не проводят свою жизнь в академической среде и не имеют степени ИТ. Они не принимают участия в этой дискуссии, и это крайне ограничительно. Люди, которые профессионально не занимаются развитием искусственного интеллекта, не имеют права высказываться по этому вопросу. И все же есть много важных и в то же время простых для понимания вопросов, касающихся социальных и культурных аспектов ИИ. Цель моей работы - убедить людей в том, что их мнение имеет значение и что им не нужно разбираться во всех технических деталях, связанных с данной проблемой, иметь мнение о возможных последствиях их реализации.

Текст доступен по лицензии Creative Commons BY-NC-ND 3.0 PL (Признание - Некоммерческое использование - Нет зависимых работ).

Какова его работа?
В центре установки находится компьютер, на экране написано: «У вас есть секрет?
Какими секретами люди чаще всего делятся с вашей машиной?
«Будущее секретов» также вызывает такие реакции?
Люди читают секреты, напечатанные компьютером, как сознательный ответ на их сообщения?
Откуда этот компьютер узнал, что это отличается от моих секретов?
Откуда он знал, что я думаю об этом?
Приведет ли этот диалог к ​​созданию глобального и основанного на консенсусе набора правил, или будущее ИС - много разнообразного и локального искусственного интеллекта?
Когда мы думаем об искусственном интеллекте в этом контексте, мы должны спросить себя: хотим ли мы, чтобы эти системы были такими же, как у человека, или, может быть, намного лучше?