Выберите язык

Russian

Down Icon

Выберите страну

Spain

Down Icon

ИИ: Обязанности его создателей и пользователей

ИИ: Обязанности его создателей и пользователей

На прошлой неделе в этой колонке я рассмотрел некоторые из основных проблем, которые повлечет за собой регулирование искусственного интеллекта в Мексике. Проблема возникает из-за юридического определения самой концепции и ее последствий для регулирования смежных вопросов, но не ограничивается этими аспектами. Еще одной проблемой, связанной с регулированием в этой области, является разграничение ответственности между теми, кто разрабатывает системы ИИ, и теми, кто их использует.

Искусственный интеллект настолько внезапно вошел в нашу жизнь, что общество порой воспринимает его как нечто автономное, анонимное, создающее и развивающее себя, как бы действующее по собственной воле, без пуповины, соединяющей его с создателями, и без вмешательства пользователя, который дает ему инструкции и формулирует запросы. Проблема этой концепции заключается в том, что если бы она была воспроизведена в юридической сфере, не было бы возможности определить ответственных за любые нарушения прав, совершенные с использованием ИИ, поскольку алгоритмы не являются идентифицируемыми юридическими лицами, которые могут нести ответственность.

Вот почему при регулировании этого вопроса необходимо тщательно проанализировать объем ответственности как создателей, так и пользователей, чтобы сохранить правовую определенность, а также права и свободы обеих сторон. Подобно тому, как право разработало теорию юридической фикции, чтобы разрешить создание юридических лиц с соответствующими им правовыми сферами, теперь необходимо адаптировать законодательство, чтобы разрешить и поощрять разработку и расширение систем искусственного интеллекта, не оставляя при этом незащищенными права всех участников.

Что касается разработчиков ИИ, очевидно, что в их обязанности входит процесс определения и выбора баз данных и информации, которые они будут вводить в свои системы или платформы. Ярким примером являются споры, возникшие в ряде стран по поводу потенциального нарушения прав интеллектуальной собственности, когда разработчики систем ИИ включают в свои системы базы данных или контент, принадлежащие третьим лицам, без получения их разрешения или оплаты их коммерческой эксплуатации. Что касается внедрения предвзятых алгоритмов, любые ограничения должны быть тщательно оценены, чтобы гарантировать уважение свободы выражения мнений.

Что касается пользователей, то многие из них выработали почти слепое доверие к информации, которую они получают от систем ИИ. Некоторые воспринимают их как своего рода современных оракулов, ответственных за решение их проблем, вплоть до того, что они принимают решения, оказывающие глубокое влияние на их жизнь, основываясь на рекомендациях, генерируемых платформой искусственного интеллекта.

Некоторые люди обращаются к ИИ за психологической поддержкой или индивидуальным советом для разрешения конкретной ситуации, и они принимают результаты консультации даже превыше собственного суждения. По словам доктора Мары Диерссен, президента Испанского совета по изучению мозга, когда чрезмерные задачи делегируются ИИ, неврологическая нагрузка снижается, что также снижает способность критически мыслить и самостоятельно решать проблемы (Vademecum, Королевская национальная медицинская академия Испании). Имеются также случаи, когда пользователи используют инструменты ИИ для создания или распространения противозаконного контента.

В этих случаях создателям ИИ не придется брать на себя ответственность за использование каждым человеком их платформ или за решения, которые они принимают на их основе. Возможно, их следует просто обязать размещать предупреждающие надписи, а не значительно сокращать или проверять контент, который они генерируют, поскольку это резко снизит преимущества ИИ.

Eleconomista

Eleconomista

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow