Новая ИИ-модель DeepSeek cделает работу с длинным контекстом вдвое дешевле и быстрее

Wait 5 sec.

Инженеры DeepSeek представили новую экспериментальную модель V3.2-exp, которая обеспечивает вдвое меньшую стоимость инференса и значительное ускорение для сценариев с длинным контекстом. Источник изображения: DeepSeek/TechCrunch