[Перевод] Ваш ноутбук пока не готов к LLM, но скоро это изменится

Wait 5 sec.

Бьюсь об заклад, что ПК в вашем офисе вряд ли потянут большие языковые модели (LLM).Сегодня большинство пользователей взаимодействуют с LLM через браузеры. Более технически подкованные используют программный интерфейс или командную строку. Но и в том, и другом случае запросы отправляются в дата-центр, где размещается и работает модель. И такая схема работает прекрасно, до поры до времени. Аварийное отключение дата-центра может лишить вас доступа к модели на несколько часов. Кроме того, некоторые пользователи не желают отправлять личные данные какой-то неизвестной сущности. В этом свете локальное выполнение модели обеспечивает ряд значительных преимуществ: низкая задержка, лучшее понимание ваших конкретных задач и конфиденциальность, которой способствует сохранение личных данных на своей машине. Читать далее