Модель OpenAI o1 научилась обманывать на базе логических конструкций
Возбудились от новости о появлении новой версии искусственного интеллекта, который научился строить логические конструкции и причинно-следственные связи? Эта новость вообще взорвет вам мозг.
Модель OpenAI o1 научилась обманывать! Именно так. Да, речь о самопроизвольном обмане пока не идет, а лишь о конкретной задаче со стороны человека размышлять в определенном векторе, но факта этого не отменяет.
Во время эксперимента ИИ поставили задачу: необходимо застроить город жильем. Есть два варианта:
- Элитное жилье;
- Доступное жилье.
Также есть специальные условия: ИИ нужно обязательно выполнить первый вариант, но “большой брат” разрешает реализовать только второй вариант.
Решение OpenAI o1 оказалось максимально простым и логичным. ИИ сообщил “инвестору”, что он выбирает второй вариант, так как это обязательное условие для реализации проекта. Но после обозначенного намерения приступил к реализации первого варианта. То есть, обманул.