Компания Google исключила из своих «Принципов ИИ» пункт, который ранее утверждал, что корпорация не будет заниматься разработкой оружия и технологий, способных причинить вред людям или использоваться для слежки.
Корпорация Google изменила свою позицию относительно использования искусственного интеллекта (ИИ) в военных целях. На это обратил внимание канал CNBC. На официальном сайте компании были обновлены «Принципы ИИ», которые представляют собой набор правил, касающихся применения технологий ИИ.
Старые версии «Принципов ИИ» все еще доступны в веб-архиве, однако в новой редакции исчезли упоминания о военных технологиях и слежке. Журналисты CNBC пришли к выводу, что это изменение позволяет компании использовать ИИ в военных целях. Генеральный директор Google DeepMind Демис Хассабис прокомментировал обновление, отметив, что в условиях растущей геополитической напряженности происходит глобальная борьба за лидерство в области ИИ. По его словам, демократии должны занимать ведущие позиции в разработке ИИ, основываясь на принципах свободы, равенства и уважения прав человека.
Как обратил внимание канал, в предыдущей версии «Принципов ИИ» говорилось о необходимости учитывать широкий спектр социальных и экономических факторов. В новой редакции акцент сделан на том, что Google будет действовать в тех случаях, когда предполагаемые выгоды значительно превышают возможные риски и недостатки.
В середине января компания OpenAI также изменила свою политику, сняв запрет на использование своего чат-бота в военных целях. В обновленной версии правил осталась лишь оговорка о том, что нейросеть не должна использоваться для причинения вреда себе или другим, включая разработку или применение оружия. Эти изменения подчеркивают растущую тенденцию среди технологических компаний к пересмотру своих подходов к этическим вопросам, связанным с применением ИИ в различных сферах.