Крупнейшие игроки на рынке ИИ создали рабочую группу по вопросам безопасного развития
Американское правительство всерьез озаботилось вопросами безопасности при разработке искусственного интеллекта. Оно обязало компании, которые ведут исследования в этих областях, разработать меры предосторожности на случай появления какого-нибудь “Скайнета”. Или хотя бы помечать созданный искусственным интеллектом контент вотермарками.
Anthropic, Google, Microsoft и Open AI, ведущие в отрасли организации, решили объединить усилия и создали исследовательскую группу (форум) Frontier Model Forum, которая будет заниматься безопасностью при разработке различных моделей ИИ.
Пограничными моделями считаются любые “крупномасштабные модели машинного обучения”, которые выходят за рамки текущих возможностей и обладают широким спектром возможностей.
Форум планирует создать консультативный комитет, устав и финансирование. В нем изложены основные принципы, на которых он намерен сосредоточиться при дальнейшем исследовании безопасности ИИ, определении передового опыта, тесном сотрудничестве с политиками, учеными, гражданским обществом и компаниями, а также на поощрении усилий по созданию ИИ, который «может помочь решить самые большие проблемы общества».