Большие языковые модели, технология, лежащая в основе таких инструментов искусственного интеллекта, как ChatGPT и Midjourney, часто ведут себя странным и непредсказуемым образом.
В новом обзорном документе Сэм Боуман, профессор Нью-Йоркского университета и приглашенный исследователь ИИ в стартапе Anthropic, выделил восемь разных вещей , которые делают их такими странными.

Список, основанный на предыдущих исследованиях LLM ( Large Language Model), является отличной отправной точкой для всех, кто пытается следить за тем, как быстро развивается эта технология.
- LLM предсказуемо становятся более способными с ростом инвестиций, даже без целенаправленных инноваций.
- Многие важные модели поведения LLM возникают неожиданно как побочный продукт увеличения инвестиций.
- Часто кажется, что LLM изучают и используют представления внешнего мира.
- Не существует надежных методов управления поведением LLM.
- Эксперты еще не в состоянии интерпретировать внутреннюю работу LLM.
- Производительность человека при выполнении задачи не является верхней границей производительности LLM.
- LLM не должны выражать ценности своих создателей или ценности, закодированные в веб-тексте.
- Кратковременные взаимодействия с LLM часто ошибочны.
ведущий.
2 комментария к “Странное поведение инструментов искусственного интеллекта”