G Research zaprezentowało technologię TurboQuant, która pozwala nawet sześciokrotnie zmniejszyć zapotrzebowanie modeli AI na pamięć RAM i jednocześnie znacząco przyspieszyć obliczenia. Dzięki kompresji danych do zaledwie kilku bitów modele takie jak Llama czy Gemma mogą działać na twoim laptopie.