«Фонд свободного программного обеспечения» (FSF) объявил об поддержке исследований для оценки законности использования GitHub Copilot. Компания готова выплачивать по 500 долларов за каждую полезную статью или официальный документ, в котором будут рассмотрены вопросы юридической и моральной легальности применения сервиса Copilot, Фонд также намерен поддержать авторов финансированием для проведения ими дальнейших исследований по этой теме.
Некоммерческая организация «Фонд свободного программного обеспечения» (FSF) был основан в 1985 году в Бостоне, шт. Массачусетс для поддержки движения развития свободного ПО и, в особенности, проекта GNU. Поэтому организация так живо отреагировала на создание нейросетевого сервиса Copilot.
Сервис Copilot был представлен в конце июня компаниями Microsoft и GitHub. Он позволяет разработчикам вставлять нужные им фрагменты кода, используя обученный нейросетевой сервис, основанный на OpenAI Codex, который, по мнению многих, способен генерировать код значительно более эффективно, чем GPT-3. Алгоритм Copilot прошел обучение на датасете, в который вошли огромные массивы накопленного в GitHub общедоступного программного кода.
С функциональной точки зрения Copilot представляет собой плагин для Microsoft Visual Studio Code, который использует поддержку ИИ для разработки ПО. GitHub Copilot поддерживает множество языков и фреймворков и упрощает жизнь разработчиков, позволяя заполнять кодом целые строки и даже функции внутри IDE.
Однако в последнее время появилось много аргументов, которые ставят под сомнение легальность данного сервиса. Сторонник ПО с открытым исходным кодом жалуются, что Copilot требует для работы использования Microsoft Visual Studio IDE или редактора кода Visual Studio Code, а этот проект не является открытым и бесплатным. Непонятно, какой лицензией была защищена нейросеть, на использовании которой построена работа Copilot, и кому принадлежат авторские права на новый код. Правомерность использования «услуги для замены программного обеспечения» также не раскрыта.
Нет также ясности, могут ли фрагменты кода, скопированные из репозиториев и размещенные на GitHub, привести к нарушению авторских прав. FSF считает, что в отношении Copilot уже набралось множество проблем, которые необходимо проверять в суде.
Более того, «активисты задаются вопросом, нет ли принципиальной несправедливости в том, что компания Microsoft, занимающаяся проприетарным ПО, строит сервис на основе своей работы», – пишет FSF.
В результате FSF рассчитывает на появление документов или статей, в которых рассматриваются следующие вопросы:
- Является ли обучение Copilot нарушением авторских прав публичных репозиториев? Является ли использование их фрагментов кода актом добросовестного использования?
- Насколько вероятно, что результаты работы Copilot приведут к предъявлению исков о нарушениях работ под лицензией GPL?
- Могут ли разработчики, использующие Copilot, соблюдать лицензии на бесплатное программное обеспечение, такие как GPL?
- Как разработчики могут гарантировать, что код, на который они имеют авторские права, защищен от нарушений, создаваемых Copilot?
- Если Copilot генерирует код, который приводит к нарушению лицензионной работы свободного программного обеспечения, как может это нарушение быть обнаружено правообладателем?
- Защищена ли обученная модель AI/ML авторским правом? Кому принадлежат авторские права?
- Следует ли организациям, подобным FSF, выступать за изменение закона об авторском праве, имеющего отношение к этим вопросам?
Желающие подать заявку могут отправить ее по адресу licensing@fsf.org до 21 августа.
Ранее редакция THG.ru опубликовала статью об искусственном интеллекте. Искусственный интеллект уже давно занял важное место в научно-фантастической литературе и голливудских блокбастерах. Именно они формируют мнение большинства людей о том, что из себя представляет ИИ, и чего от него следует ожидать. Но насколько это мнение соответствует реальному положению вещей? Давайте разбираться. Подробнее об этом читайте в статье “Искусственный интеллект: правда и вымысел”.