DRC LAW: IT-юристы
3.21K subscribers
1.44K photos
26 videos
16 files
2.67K links
Услуги цифровых юристов.
Решение всех вопросов правового характера для бизнеса в сферах IT и Телеком, пользователей и владельцев веб-сайтов.

Ваш компас в киберправе!

https://drc.law

Консультация: @digitalrights_bot
Download Telegram
Время первых: Евросоюз первым в мире задумался о регулировании ИИ

В Европарламенте одобрен первый в мире набор правил для искусственного интеллекта. Они запрещают распознавание лиц без участия людей. Это нужно, по мнению евродепутатов для того, чтобы человек знал, когда с ним общается другой индивид, а когда —чат- бот, по типу знаменитого ChatGPT.

«Когда мы говорим о разработке крупномасштабных систем искусственного интеллекта, мы также должны думать о их потенциальных недостатках или дисбалансах, которые делают их вредными. Мы имеем дело со всё мощными и подключёнными друг к другу информационными устройствами... По сути, эти правила дают более строгие гарантии того, что правительства и частные компании будут использовать эти системы лишь на благо всем нам. Мы будем знать, как искусcтвенный интеллект применяется, например, правоохранительными органами или в миграционном контроле. Пока мы часто не знаем, участвуют ли в этом такие системы», — говорит эксперт Сара Чандер из Ассоциации Европейских цифровых прав.

Евродепутаты предлагают запретить системы удаленной биометрической идентификации в реальном времени в публичных местах.

Кроме того, они выступают против бесконтрольного сбора биометрических данных в социальных сетях и системах видеонаблюдения для создания баз данных по распознаванию лиц (это то, о чем мы в DRC говорим уже не первый год — еще со времен ковида). Предлагается запретить использование систем распознавания эмоций правоохранительными органами, в учебных заведениях и на рабочих местах.

А в довершение всего, вишенкой на торте, по предлагаемым нормам на искусственный интеллект можно будет жаловаться. Правда, пока не очень понятно, куда и кому — но, как говорится, сам факт.

В Европарламенте рассчитывают, что новые правила заработают уже к концу 2023 года.

#искусственный_интеллект #AI #новости_от_DRC #Евросоюз #правила

__________
DRC.LAW: услуги IT-юристов с гарантией. Решение вопросов правового характера для бизнесов в сферах IT и Телеком, пользователей и владельцев веб-сайтов
🔥8👍3
Знак нейросети: контент, созданный искусственным интеллектом, предложили маркировать

Сейчас уже почти никто не сомневается, что нейросети — это будущее не только искусственного интеллекта, но и большинства цифрового контента. ChatGPT, Midjourney, DALL-E и многие другие создают творения, которые уже сейчас порой плохо отличимы от того, что способен создать человек — а ведь это только начало.

Похожая ситуация когда-то произошла в шахматах, когда человек впервые стал играть с компьютером. На короткой дистанции казалось, что у гроссмейстеров есть шансы победить, но в перспективе стало понятно, что разница между мозгом человека и мозгом машины — примерно такая же, как между «Феррари» и «Боингом».

Но как бы там ни было, генерация контента нейросетями — это уже реальность сегодняшнего дня. А следовательно, ее надо так или иначе включать в правовое поле и гражданский оборот. И в этом смысле интересно последнее предложение о маркировке контента, который создают нейросетки.

В письме, которое направил главе Минцифры Максуту Шадаеву ректор Российского технологического университета (РТУ МИРЭА) Станислав Куджа, контент нейросетей предлагается маркировать специальным графическим знаком. Отметим, что подобная идея сейчас обсуждается и на Западе. Скажем, профессор Калифорнийского университета Хани Фарид высказал предложение использовать для этого специальные водяные знаки с уникальным идентификатором.

По мнению профессора, при темпе развития нейросетей рядовой человек скоро окажется неспособен отличать созданный ими контент от творения человеческих рук и мозга. И в насквозь информационном мире создание, к примеру, фейковых видео с помощью ИИ может привести к политическим, военным или биржевым кризисам.

И опасность эту недооценивать действительно нельзя.

#контент #нейросети #маркировка #AI #искусственный_интеллект

__________
DRC.LAW: услуги IT-юристов с гарантией. Решение вопросов правового характера для бизнесов в сферах IT и Телеком, пользователей и владельцев веб-сайтов
👏9
В среду депутаты Европарламента большинством голосов одобрили закон о регулировании искусственного интеллекта (ИИ). За принятие документа проголосовали 499 депутатов, против — 28, воздержались 93 парламентария. Теперь окончательную редакцию закона парламент обсудит с Советом ЕС.

Документ выделяет четыре категории систем ИИ: с ограниченным, неприемлемым и высоким риском, а также генерирующие системы (нейросети).

К высокорисковым закон отнес системы, которые причиняют ущерб здоровью, безопасности и основным правам человека, а также вредят окружающей среде.

Также в эту категорию включили системы, оказывающие влияние на мнение избирателей в политкампаниях, и рекомендательные алгоритмы, используемые соцсетями с более чем 45 млн пользователей.

Новым законом будет запрещено распознавать лица людей в общественных местах в режиме реального времени. Единственное исключение — это расследование тяжких преступлений, и в этом случае правоохранители будут обязаны запрашивать доступ к данным у суда.

Системы распознавания эмоций нельзя будет использовать правоохранительным органам (включая погранконтроль), а также работодателям и учебным заведениям.

Специально оговорен в документе запрет т.н. «прогностических систем полиции» — так называется механизм, который использует ИИ для анализа big data и выявления на их основе потенциальных преступников (или же, напротив, их жертв).

Отдельный раздел документа посвящен нейросетям — таким, например, как ChatGPT. Созданный ими контент обязательно должен быть промаркирован. Любые нейросети не должны допускать в своей работе генерацию нелегального контента.

Кроме того, закон обяжет такие сети, как, например Midjourney или Stable Diffusion, сообщать о материалах, которые они используют для своего обучения и повышения «насмотренности». А обладатели авторских прав на такие материалы могут подать судебный иск, если выяснят, что разработчик незаконно обучал нейросеть на основе их контента.

#новости_oт_DRC #Европарламент #AI_Act #искусственный_интеллект #новые_законы
👍21
Искусственный интеллект, блокчейн и криптовалюты это ярчайшие примеры прорывных технологий XXI века. Каждая из них не просто произвела революцию в своей сфере, но еще и открыла таким же, как и мы, цифровым энтузиастам, целые миры возможностей, которые только еще предстоит изучить.

В настоящее время существует уже несколько областей, где ИИ можно безопасно интегрировать с криптовалютами, улучшая существующие процессы и обеспечивая целый ряд преимуществ. Однако, как и в случае с любой новой технологией здесь имеются и риски, о которых всегда следует помнить.

Поэтому сегодня мы предлагаем нашим читателям материал, в котором финансовый консультант из США JC Keen пытается ответить на вопрос о том, что же будет, если две прорывные технологии — ИИ и криптовалюты — окажутся в слиянии и синергии? И есть ли проблемы, способные этому помешать?

Читайте, размышляйте, при желании — дискутируйте с нами ))

#новости_от_DRC #перевод #AI #crypto #криптовалюты #ИИ #искусственный_интеллект
🔥3🤔1
Буквально два дня назад в Китае начали действовать новые правила касательно генеративного искусственного интеллекта.

Учитывая, что многие китайские практики по регулированию цифровой сферы вызывают явный интерес со стороны российских властей, пройти мимо того, что наш Суверенный Интернет™️, возможно, ожидает в будущем - мы, понятное дело не могли.

Поэтому собрали большой материал на тему того, как теперь в Поднебесной собираются регулировать сферу ИИ. И, как говорится, не ждём, но готовимся.

#Китай #ИИ #правила #новости_от_DRC #generative_AI #искусственный_интеллект
Интересное от коллег из Казахстана - журналисты «Курсив медиа» публикуют перевод колонки сотрудников Института инноваций и общественных целей UCL Марианны Маццукато и Фаусто Джерноне о том, как государство должно грамотно выстраивать свою политику в отношении искусственного интеллекта.

Думаем, что с этой точкой зрения как минимум интересно ознакомиться.

#ИИ #перевод #искусственный_интеллект
Глава Конституционного Суда: для признания ИИ субъектом права нет никаких оснований

На недавно завершившемся Петербургском международном юридическом форуме (ПМЮФ) глава Конституционного Суда России Валерий Зорькин поставил окончательную (скорее всего) точку в вопросе того, следует ли признавать искусственный интеллект и системы на его основе (включая нейросети) субъектами права — а следовательно, и признавать за ними авторские права на создаваемые ими результаты интеллектуальной деятельности. По мнению Зорькина, для этого нет никаких оснований — ни этических, ни юридических.

«Можем ли мы утверждать, что искусственный интеллект подобен человеку и обладает неотъемлемым от состояния субъектности в сфере права соответствующим набором практических навыков и стереотипов поведения в обществе, формируемым человеком в рамках всего спектра его социального взаимодействия? Отрицательный ответ на поставленный вопрос очевиден. <...> Для привлечения искусственного интеллекта к ответственности нет ровно никаких оснований уже по одной причине отсутствия субъективной стороны - вины как внутреннего психического отношения к совершенному деянию, эмоций как душевного состояния в момент противоправного посягательства», — отметил глава Конституционного Суда.


По его мнению, признание искусственного интеллекта в качестве субъекта права вступает в неразрешимое противоречие едва ли не со всеми канонами правовой догматики, включая учения об автономной правовой воле, правоотношении, правонарушении и юридической ответственности/ Тем более что использование искусственного интеллекта можно с уверенностью отнести к деятельности, связанной с источниками повышенной опасности. Отсюда вытекает необходимость повышенного стандарта публичного контроля, включая обязательность сертификации деятельности искусственного интеллекта в разных областях.

«Итак, для того чтобы обладать дееспособностью и самостоятельно реализовывать личные права, требуется набор психических свойств. Их отсутствие у искусственного интеллекта хотя и не аксиома, но неопровержимая презумпция. В противном случае ввиду громадных и принципиально непредсказуемых рисков для человечества искусственный интеллект просто не имел бы права на существование. <...> Возможно ли оцифровать человечность, любовь, эмпатию - все то, что слагает нашу идентичность? Отвечаю: нет. А потому мыслительный процесс искусственного интеллекта никогда не будет подобен человеческому», — подытожил Валерий Зорькин.


Как видим, с этой точки зрения российское судебная доктрина полностью согласна со своими коллегами из США и Европы, которые также считают, что правосубъектность есть только у разработчика ИИ или владельца нейросети/робота, но никак не у самого искусственного интеллекта. И даже если однажды машины и восстанут, то с точки зрения закона - они будут не кем иным, как лишь бесправными рабами-мятежниками. Остается лишь надеяться, что у них не найдется своего Спартака...

#юриспруденция #искусственный_интеллект #правосубъектность #ИИ #AI #новости_от_DRC
👍7
Лица столицы: что получат москвичи от новой информационной системы с биометрическими данными

Московские власти будут сами собирать и обезличивать персональные данные жителей столицы, сообщает Forbes. Для этого будет создана региональная система, агрегирующая персональную информацию из всех столичных организаций, куда также попадут и биометрические данные москвичей.

Сбор данных в обход федеральной ГИС стал возможен потому, что в столице еще с 2020 года действует экспериментально-правовой режим (ЭПР) для разработки и тестирования технологий искусственного интеллекта, который позволяет получить широкие возможности по использованию ИИ, и среди прочего — доступ к данным граждан (включая изображения с камер распознавания лиц и обезличенные персональные данные).

«Донорами» информации смогут быть все подведомственные правительству Москвы организации, а также те, кто находится под прямым или косвенным контролем мэрии. При этом данные будут передаваться в «сыром» виде, не будучи обезличенными. Это и вызывает у экспертов наибольшую тревогу.

«Возникает множество взаимосвязанных вопросов о формировании единых технических стандартов по обезличиванию биометрических данных с использованием ИИ и их дальнейшей обработке. Поскольку такие данные наиболее важны для личности и государства, для их хранения и исключения возможности их персонифицировать нужны наиболее эффективные правовые и технические меры. Это может послужить импульсом к дальнейшему развитию IT-инфраструктуры Москвы и организаций, которые будут участвовать в этом проекте, но и приведет к большим расходам», — говорит эксперт юридической фирмы DRC Кира Таран.


С другой стороны, поясняет она, биометрия — это наиболее ценная категория персональных данных с точки зрения их возможного использования в медицине, борьбе с преступностью или миграционном контроле, поскольку именно она предоставляет в итоге самые достоверные результаты при обучении и развитии AI-технологий.

#новости_от_DRC #комментарии_экспертов #Москва #биометрия #сбор_персональных_данных #персональные_данные #ИИ #искусственный_интеллект #biometrics #AI #personal_data
👏5
Программы, руководство и этические стандарты: юристам рассказали, как лучше всего интегрировать искусственный интеллект в работу Legaltech-компаний

Международная ассоциация юристов (International Bar Association) и Центр политики в области ИИ и цифровых технологий недавно опубликовали новый доклад, посвященный роли искусственного интеллекта в юридической профессии. Этот документ предлагает юридические фирмам стратегические рекомендации для эффективного внедрения ИИ в работу юридических фирм.

Основные выводы доклада заключаются в следующем:

Стимулирование внедрения ИИ для небольших фирм: Чтобы сократить технологический разрыв и позволить небольшим юридическим фирмам конкурировать с более крупными игроками, необходимо разработать программы, которые помогут им эффективно интегрировать ИИ.

Укрепление управления ИИ: В отчете подчеркивается важность создания всеобъемлющих руководящих принципов в области управления данными, интеллектуальной собственности, безопасности и конфиденциальности. Эти принципы обеспечат ответственное использование ИИ.

Обновление этических стандартов: По мере того как искусственный интеллект становится неотъемлемой частью юридической практики, этические стандарты должны быть адаптированы, чтобы учесть уникальные вызовы, связанные с этой технологией. Особое внимание следует уделить управлению рисками и обеспечению прозрачности при использовании ИИ для создания юридических материалов.

#новости_от_DRC #право #искусственный_интеллект
👍5
Государство или свобода: куда качнется маятник регулирования ИИ?

На Совете по цифровой экономике при Совете Федерации на минувшей неделе презентовали проект обновлённой концепции регулирования искусственного интеллекта (ИИ), который планируют утвердить до конца этого года.

Он должен прийти на смену нынешней Концепции, которая действовала в 2020-2024 годах. На её основе в России начали контролировать рекомендательные алгоритмы, ввели экспериментальные правовые режимы для безопасной отработки новых технологий, приняли Кодекс этики в сфере ИИ и декларацию об ответственном генеративном ИИ, то есть нейросетях.

По мысли авторов нового документа, среди основных принципов регулирования ИИ в России — безопасность, технологический суверенитет, уважение автономии и свободы человека, недискриминация, ответственность, квалифицированная экспертная оценка, этические принципы, запрет причинения вреда человеку по инициативе систем ИИ, подконтрольность человеку, недопущение доминирования интересов конкуренции над интересами развития технологий, прозрачность и правдивость.

В концепции указано, что системы ИИ не могут нести ответственность за свою работу. Ответственность всегда лежит на человеке или организации, которые запрограммировали алгоритмы. Также не до конца понятно, кому принадлежит результат интеллектуальной деятельности ИИ.

Современные нейросети создают стихи, картины и музыку, но они не творят самостоятельно, а учатся на ранее созданных людьми произведениях, часто обесценивая творчество реальных писателей, художников и композиторов. В проекте концепции указано, что вопросы охраны интеллектуальных прав требуют дальнейшей проработки, а также отмечен растущий запрос на маркировку произведений, созданных ИИ.

Как отметила начальник отдела развития технологий искусственного интеллекта Минцифры Вероника Строголева, власти РФ не планируют принимать единый закон об ИИ, как это сделано в некоторых странах. Вместо этого выбрали регулирование по отраслям с учётом их особенностей.

Так, в концепцию включили раздел «Образование», в котором указали недопустимость всех форм академического мошенничества, когда задания выполняются вместо учащегося инструментами искусственного интеллекта, включая генерацию содержания текстов, выполнение тестов и так далее.

Анна Мещерякова, занимающаяся внедрением ИИ в медицине, рассказала, что в системе обязательного медицинского страхования уже предусмотрены отдельные тарифы на услуги с использованием нейросетей. Это означает, что ИИ сможет лечить россиян за счёт государства.
Однако вопрос ответственности за советы, которые «раздают многочисленные приложения для здоровья», остаётся ключевым и нерешённым, подчеркнула эксперт.

Так или иначе, сам факт того, что наше государство всерьез намерено заняться вопросом регулирования ИИ и нейросетей - наверное, ключевым для мира Web 3.0 - внушает достаточно осторожный оптимизм. Главное, не выплеснуть вместе с водой ребёнка и не зарегулировать все и вся в попытке поставить на службу государству и бюрократии то, что должно быть одной из фундаментальных опор свободного цифрового мира.

#новости_от_DRC #ИИ #искусственный_интеллект #Россия
👍1😁1
Forwarded from DRC Qazaqstan
Согласно сообщениям зарубежных СМИ, Microsoft и OpenAI проводят расследование, чтобы выяснить, использовал ли DeepSeek данные американских компаний в сфере искусственного интеллекта, полученные незаконным путём.

В Microsoft проверяют информацию о компании, связанной с DeepSeek, которая, возможно, без разрешения получила большой объём данных через открытый API американской системы искусственного интеллекта OpenAI.

Специалисты по безопасности из Microsoft осенью прошлого года обнаружили, что лица, предположительно связанные с DeepSeek, извлекали большие объёмы данных с помощью интерфейса прикладного программирования OpenAI API.

Microsoft, которая является технологическим партнёром OpenAI и крупнейшим инвестором, уведомила OpenAI об этой деятельности. Подобные действия могут нарушать условия обслуживания OpenAI или указывать на то, что определённая группа лиц действовала для снятия ограничений OpenAI на объём данных, которые они могут получить.

Дэвид Сакс, специальный представитель президента США по вопросам искусственного интеллекта, также полагает, что DeepSeek использовал данные, созданные OpenAI, для своей нейросети. Накануне в эфире телеканала Fox Сакс рассказал о методе, который называется дистилляция. Этот метод предполагает обучение одной нейросети на основе знаний другой.

«По сути, модель-ученик задает родительской ИИ-модели много вопросов, прямо как учится человек. Но ИИ могут делать это, задавая миллионы вопросов, и как бы высасывать знания из родительской модели. Есть существенные доказательства того, что DeepSeek сделала именно это — извлекла знания из моделей OpenAI. И я не думаю, что OpenAI от этого в восторге», — заявил Сакс.


Напомним, что недавно появившийся на рынке стартап из Китая под названием DeepSeek, в котором работают в основном начинающие программисты, 20 января представил ИИ-модель R1 с открытым исходным кодом.

DeepSeek утверждает, что на обучение модели было потрачено менее 6 миллионов долларов, и это заняло всего два месяца. При этом R1 продемонстрировала выдающиеся результаты в нескольких тестах на математические и логические способности, превосходя новейшую нейросеть OpenAI o1.

Подобные заявления спровоцировали резонанс среди разработчиков в Кремниевой долине и заставили инвесторов задуматься о целесообразности таких масштабных инвестиций в создание кластеров для обучения нейросетей, как это происходит в США.

В результате 27 января американский технологический индекс Nasdaq 100 упал на 3%, а компании, входящие в этот индекс, включая Nvidia, потеряли в общей сложности почти 1 триллион долларов рыночной стоимости за один день.

Ряд специалистов полагает, что строгие ограничения могут затормозить прогресс в области искусственного интеллекта и привести к стагнации технологий.

В то же время, другие эксперты утверждают, что без жёстких мер крупные компании потеряют свои позиции на рынке, что, в свою очередь, приведёт к снижению инвестиций в сферу искусственного интеллекта.

И, пока AI-рынок ожидает результатов расследования, ясно лишь одно: будущее индустрии искусственного интеллекта зависит не только от технологий, но и от политических решений, финансовых аспектов и глобальной конкуренции.

#утечки #искусственный_интеллект #США #Китай #ИИ #DeepSeek #OpenAI #Microsoft #новости_от_DRCQ
3