Согласно отчету AI New Intelligence от 14 ноября, генеральный директор OpenAI Сэм Альтман недавно раскрыл больше следующих шагов OpenAI в интервью FT. Альтман сказал, что компания разрабатывает следующее поколение модели искусственного интеллекта GPT-5. Но он не взял на себя обязательство обнародовать график. Альтман говорит, что для обучения потребуется больше данных, которые будут поступать из общедоступных наборов данных в Интернете, а также из собственных данных компании. Недавно OpenAI выступила с призывом к крупномасштабным наборам данных, особенно к тем, которые «сегодня не являются общедоступными и легко доступными в Интернете», особенно к длинным текстам или разговорам в любом формате. Альтман также сообщил, что для обучения своих моделей OpenAI, как и большинство других крупных AI-компаний, использует передовые чипы Nvidia H100. Он упомянул, что в этом году возникла «серьезная напряженность» из-за нехватки чипов от Nvidia. Однако, поскольку другие компании, такие как Google, Microsoft, AMD и Intel, готовятся выпустить конкурирующие чипы искусственного интеллекта, зависимость от Nvidia может продлиться недолго. Кроме того, несмотря на потребительский успех OpenAI, Альтман сказал, что компания стремится добиться прогресса в создании общего искусственного интеллекта. Он утверждает, что большие языковые модели (LLM), модели, лежащие в основе ChatGPT, являются «одной из основных частей построения AGI, но над ней есть много других частей». Он также подчеркнул важность языка для сжатия информации, фактор, который, по его мнению, упускают из виду такие компании, как Google DeepMind. Ранее, в сентябре, сообщалось, что OpenAI, сооснователь DeepMind, тайно обучает GPT-5.