Швейцарский философ: «Технология никогда не бывает нейтральной»
Как долго еще сможет человек понимать и контролировать машины и технологии, которые он сам же и придумал? Философ и журналист из швейцарского италоязычного кантона Тичино Бруно Джуссани (Bruno Giussani) сознательно принимает сторону тех, кто склонен скептически оценивать современные технические тенденции, предупреждая: цифровые технологии становятся все более опасными для демократии и общества.
Бруно Джуссани — глобальный куратор аналитического Центра TEDВнешняя ссылка, организации, занимающейся «идеями, которые стоят того, чтобы их распространять». Центр TED проводит конференции и размещает в интернете видеосюжеты с записями дискуссий, проводимых в рамках серии TED Talks. Сегодня мы публикуем выдержки из интервью с ним, которое было опубликовано 13 ноября 2018 года в швейцарской газете Corriere del Ticino.Внешняя ссылка
CdT: Каким Вы видите технический прогресс?
Бруно Джуссани: Я наблюдаю за ним с определённой дистанции. Уже в течение нескольких лет мы имеем дело с экспоненциальным ростом, в то время как все институты и системы, которые мы разработали на протяжении веков, были созданы для линейного развития. Кроме того, технологическое развитие оказывает фундаментальное влияние на нашу индивидуальную и коллективную идентичность, а также и на весь наш социум, коль скоро оно меняет стиль нашего общения, способы прочтения окружающего мира и то, как мы воспринимаем отношения с другими людьми.
Показать больше
В Цюрихе обсудили российские СМИ и пропаганду
Ну и, наконец, технология никогда не бывает нейтральной. Большинство гаджетов, которые мы используем, были разработаны в двух или трех глобальных центрах очень небольшой группой людей, состоящей в основном из мужчин, дипломированных инженеров, белых и азиатов в возрасте от 20 до 40 лет. И именно их мировосприятие и оказало огромное влияние практически на все то, что мы делаем сегодня с помощью этих технологий.
CdT: То есть Вы хотите сказать, что технологии, которые мы сегодня используем, изначально и не могли стать другими, пойдя по пути какой-то иной логики развития?
Б. Дж.: И да, и нет. То, что мы все рано или поздно будем использовать мобильные средства связи, считай, было неизбежно, учитывая научно-техническое развитие, которое привело к их изобретению. Но отнюдь не неизбежными были форм-факторы смартфонов и мобильных приложений, в которых воплотились эти технологии, контролируя нас сегодня и манипулируя нами. Ведь мы вполне могли бы иметь более безвредные мобильные телефоны, предназначенные для того, чтобы нам служить, а не для того, чтобы делать нас от них зависимыми.
CdT: Как сделать так, чтобы мы были, так сказать, во всеоружии перед лицом всех этих технологий?
Б.Дж.: Мы знаем, что определенные технологии, такие как видеоигры, мобильные телефоны и социальные сети, могут вызывать зависимость. Мы также знаем, что искусственный интеллект в сочетании с робототехникой способен уничтожить бесчисленные рабочие места, которые лишь частично будут заменены новыми видами производственной деятельности. Следовательно, нам необходимо вооружаться, другого выхода нет. И молодёжи, и пожилым людям нужно учиться справляться с новыми технологиями. Нам нужны нормативные акты и контрмеры для решения тех социальных проблем, которые уже существуют из-за этих технологий и еще появятся в будущем.
Технология таргетированной рекламы весьма облегчает распространение и циркуляцию фейковых новостей.
CdT: Какие качества и свойства нам следует развивать, для того чтобы справиться с научно-техническим вызовом?
Б.Дж.: Разумеется, нам не нужно пытаться становиться специалистами буквально в каждой сфере, поэтому давайте скажем так: я бы не советовал иметь в кармане мощное устройство, не имея ни малейшего представления о системе, на основе которой это устройство работает.
Я считаю, например, что было бы хорошо, если бы детей учили навыкам программирования уже в начальной школе; не для того, чтобы потом все стали программистами, не об этом, конечно, речь. Ведь дети учатся читать и писать, но не все потом становятся писателями.
+ Прямая демократия в эпоху интернета: шансы и риски
+ В Швейцарии манипуляции с Facebook тоже возможны
Вы учитесь всему этому потому, что чтение и письмо позволяют нам понимать мир, общаться, структурировать мысли, выражать себя. Дело в том, что сейчас в мире язык все в большей степени начинает состоять из алгоритмов, и чтобы осознанно жить в нем, вы должны научиться понимать такой язык. Ведь уже сейчас в развитом мире большинство людей занимаются одним и тем же, а именно коммуникацией с компьютерными мониторами.
CdT: Что именно Вы имеете в виду, когда говорите, что технология не нейтральна?
Б.Дж.: Возьмём якобы бесплатные технологии, такие как социальные сети, которые разработаны на основе методов речевого воздействия (англ.: рersuasionВнешняя ссылка — воздействие на поведение, установки, оценки индивида и/или группы лиц средствами языка — прим. ред.), а все для того, чтобы делать пользователей всё более зависимыми от них.
Поэтому, пользуясь всеми этими техническими средствами, мы на самом деле все равно платим за них, позволяя собирать о себе всю релевантную информацию, включая особенности поведения и даже наши мысли. Затем начинается процесс создания персонального профиля. В результате информация структурируется и продаётся рекламодателям, которые бомбардируют нас таргетированной рекламой.
С точки зрения свободы слова и самовыражения, сегодня мы имеем гораздо больше демократии. Но способности фильтровать информацию и развивать критическое мышление явно сократились.
Обычно речь идет об обычной коммерческой рекламе, но такая реклама легко может носить и политический характер. Как показали последние президентские выборы в США, а также и в Бразилии, и в других странах, проблема заключается в том, что все эти коммерческие или политические послания быстро приобретают манипулятивный оттенок, к тому же технология таргетированной рекламы весьма облегчает распространение и циркуляцию фейковых новостей.
CdT: В мае 2018 года Европа перешла на обновлённые правила обработки персональных данных, установленные Общим регламентом (GDPR — General Data Protection RegulationВнешняя ссылка) по защите данных от 27 апреля 2016 г. Разве этот нормативно-правовой акт не защищает наши приватные данные в достаточной степени?
Б.Дж.: Это хорошее начало, но только начало. Современные коммуникационные системы вообще не заботятся о конфиденциальности, ведь они были разработаны, с тем чтобы, формально соответствуя закону, вытаскивать из нас всю возможную информацию, какой бы поверхностной она ни была на первый взгляд. Еще 30 лет назад раскрытие секретного досье было скандалом (речь идет о «картотечном скандале» в Швейцарии, все подробности здесь). А сегодня, в 2018 году, уже почти 30 миллионов человек совершенно добровольно установили у себя разработанного Amazon и Google Home виртуального голосового ассистента Alexa, который постоянно слушает и анализирует то, о чём идет речь за закрытыми дверями.
Показать больше
В Швейцарии на борьбу с fake news призвали науку
CdT: При этом интернет позиционирует себя в качестве крайне демократичной технологии, Вы согласны?
Б.Дж.: Я думаю, что мы тут имеем дело с масштабным парадоксом. Сегодня, с точки зрения свободы слова и самовыражения, мы имеем гораздо больше демократии. Но способности фильтровать информацию и развивать критическое мышление явно сократились. Кроме того, скорость распространения информации просто не оставляет нам времени для размышлений, нас вынуждают реагировать немедленно. Даже самая устойчивая политическая система в долгосрочной перспективе такого темпа долго не выдержит.
CdT: Вы разделяете мнение, что технологии кое-где уже превысили умственные способности человека?
Б.Дж.: Ну, некоторые (эксперты) считают, что мы уже превысили наши психологические возможности. Возникает вопрос: а сам какой-нибудь условный Марк Цукерберг вообще понимает, что такое Facebook? Причём не просто с точки зрения технологической, а с позиций социальной сети как социокультурной системы? Один из соучредителей сети Instagram недавно сказал, что мы находимся в доньютоновской эре социальных сетей — мы знаем, что они работают, но не знаем как. Мы не знаем, почему возникает процесс информационной поляризации, почему мы становимся все более зависимыми от этих технологий и почему мы реагируем на совершенно определенные импульсы и сообщения с особенной остротой.
CdT: Иначе говоря, нам нужны инструменты для фильтрации информации, а для их создания мы неизбежно опять будем вынуждены использовать алгоритмы. Значит ли это, что нашему мозгу на замену постепенно приходят технологии?
Б.Дж.: В настоящий момент имеет место конкурентная борьба, с одной стороны, способности нашего мозга воспринимать и обрабатывать информацию и, с другой стороны, возможности машин распространять информацию во всё больших масштабах. Тут существует некое фундаментальное противоречие. Я имею в виду, ну как это вообще выглядит — иметь в сети Твиттер 1 742 человека в качестве своих «фолловеров»? Это ведь один сплошной белый шум!
Алгоритмические фильтры были бы полезны, если бы они служили цели выделения действительно важной информации; де-факто они, к сожалению, используются для того, чтобы отфильтровать и собрать для нас информацию, на которую мы отреагируем сильнее всего, — обычно это информация, которая нас злит или только лишний раз подтверждает наши убеждения. Тем самым повышается «вовлечённость» пользователей, а это как раз то, к чему стремятся компании, ведь она помогает извлекать за счет рекламы прибыль.
CdT: Так как же нам можно было бы суметь не сдаться в борьбе с этими технологиями и сохранить инициативу в своих руках?
Б.Дж.: Радикальным ответом был бы вообще отказ от использования социальных сетей. Вот ведь странное явление: предприниматели Кремниевой долины, которые лучше всех знают эту технологию, потому что она была ими же разработана, отправляют своих детей в школы, в которых нет мониторов и экранов на стенах, они запрещают им пользоваться мобильными телефонами вплоть до старшего подросткового возраста, они прописывают в договорах с нянями и воспитателями строгие правила, регламентирующие, а то и полностью запрещающие использование детьми любых гаджетов.
Однако реализовать такую стратегию на практике крайне сложно, не в последнюю очередь потому, что в данной области занята целая армия инженеров и психологов, чья работа заключается как раз в разработке систем и интерфейсов, которые делают нас зависимыми. Поэтому можно было бы попробовать использовать все эти системы и технологии более осознанно.
Удивительно, что мы уделяем так много внимания тому, что едим, а вот информационный мусор мы потребляем, почти не замечая этого. Мы убеждены в том, что мы сильнее, чем это есть на самом деле, мы верим, что мы в состоянии защитить себя. В то же время все, что мерцает у нас перед глазами на экране, проникает в наше сознание без какого-либо фильтра. Это чрезвычайно опасно, поскольку именно это и определяет то, как мы взаимодействуем друг с другом и как мы интерпретируем события, происходящие в мире.
Показать больше
Искусственный интеллект возник в итальянской Швейцарии
Русскоязычная версия материала подготовлена Надеждой Капоне.
В соответствии со стандартами JTI
Показать больше: Сертификат по нормам JTI для портала SWI swissinfo.ch
Обзор текущих дебатов с нашими журналистами можно найти здесь. Пожалуйста, присоединяйтесь к нам!
Если вы хотите начать разговор на тему, поднятую в этой статье, или хотите сообщить о фактических ошибках, напишите нам по адресу russian@swissinfo.ch.