Группа ученых и исследователей искусственного интеллекта (AI) опубликовала петицию, в которой призывает к временной приостановке разработки AI-систем, превосходящих мощность GPT-4. Согласно петиции, целью такой паузы на 6 месяцев является разработка и внедрение общих протоколов безопасности для AI, чтобы избежать возможных негативных последствий и опасностей.
Авторы петиции отмечают, что современные AI-системы все ближе подходят к уровню человеческого интеллекта, и поэтому существует необходимость осознанного подхода к их разработке. В ходе шестимесячной паузы эксперты должны совместно разработать набор безопасных стандартов и протоколов, которые будут контролироваться независимыми организациями.
Параллельно с этим, петиция предлагает сосредоточить усилия на совершенствовании существующих AI-систем, делая их более безопасными, прозрачными и предсказуемыми. Кроме того, призывается ускорить разработку систем управления и контроля над AI на государственном уровне.
Авторы петиции выразили уверенность, что такой подход позволит обеспечить безопасное развитие искусственного интеллекта и перейти к «лету AI», когда человечество сможет наслаждаться преимуществами этой технологии без опасения катастрофических последствий.
В список подписантов петиции входят известные ученые, предприниматели и представители технологического сообщества, такие как Йошуа Бенджио (основатель и научный руководитель Mila, лауреат премии Тьюринга, профессор Университета Монреаля), Стюарт Рассел (профессор информатики в Беркли, директор Центра интеллектуальных систем и соавтор учебника «Искусственный интеллект: современный подход»), Илон Маск (генеральный директор SpaceX, Tesla и Twitter), Стив Возняк (соучредитель Apple), Юваль Ной Харари (писатель и профессор Еврейского университета Иерусалима) и Эндрю Янг (сопредседатель партии Forward, кандидат в президенты США 2020 года, автор бестселлера The New York Times, посол предпринимательства). Среди подписантов также значатся представители мировых AI-лабораторий и научных организаций, таких как DeepMind, Centre for the Study of Existential Risk и Future of Life Institute.
>>> Подробности