Эксинженер OpenAI, который хотел сбросить Альтмана, основал собственный ИИ стартап — для «безопасного суперинтеллекта»
Илья Суцкевер, соучредитель OpenAI и бывший главный научный сотрудник, открыл новую компанию разработки решений искусственного интеллекта, сосредоточенную на безопасности. Его новая компания — Safe Superintelligence Inc. (SSI) — это стартап с «одной целью и одним продуктом». Целью является создание безопасной и мощной системы ИИ.
В анонсе SSI описывается как стартап, который «подходит к безопасности и возможностям в тандеме», что позволяет компании быстро совершенствовать свою систему искусственного интеллекта, одновременно уделяя приоритет безопасности. Также упоминается, что «единый фокус компании» позволяет ей избежать «отвлечения на накладные расходы по управлению или циклы продукта».
«Наша бизнес-модель означает, что безопасность и прогресс изолированы от краткосрочного коммерческого давления», — говорится в сообщении. «Таким образом мы сможем мирно масштабироваться».
Кроме Суцкевера, соучредителями SSI являются Дэниел Гросс, бывший руководитель отдела искусственного интеллекта в Apple, и Дэниел Леви, ранее работавший в техническом персонале OpenAI.
В прошлом году Суцкевер возглавлял инициативу по отстранению генерального директора OpenAI Сэма Альтмана. Суцкевер покинул OpenAI в мае и намекнул на начало нового проекта. Вскоре после ухода Суцкевера исследователь искусственного интеллекта Ян Лейке объявил о своей отставке из OpenAI, ссылаясь на процессы безопасности, которые «отошли на второй план, по сравнению с блестящими продуктами». Гретхен Крюгер, исследователь политики OpenAI, также упомянула о проблемах безопасности, объявляя о своей отставке.
Во время интервью Bloomberg Суцкевер сказал, что первым продуктом SSI будет безопасный суперинтеллект, и до тех пор компания «больше ничего не будет делать».
Источник: The Verge