ローカルLLM vs オフラインWikipedia: 知識を「持ち歩き」災害に備える

Wait 5 sec.

インターネットがあれば、ChatGPTやWikipediaを利用してさまざまな知識を簡単に入手することができます。しかし例えば災害発生時など、インターネットが利用できなくなってしまうと、これらの情報を入手するのは突然困難になってしまいます。コンピュータープログラマーのEvan Hahn氏は、MIT Technology Reviewの記事「How to run an LLM on your laptop(ラップトップでLLMを実行する方法)」にインスパイアされ、どんなときでも利用できる、USBで持ち運べる知識として「ローカルLLMとオンラインWikipediaのサイズ感と有用性を比較」しています。記事では、Ollamaライブラリにあるコンシューマ向けLLMモデルと、画像なしWikipediaのダウンロードサイズが次のようにまとめられています。名前ダウンロードサイズBest of Wikipedia(50K記事)356.9MB〜1.93GBSimple English Wikipedia417.5MB〜915.1MBLlama 3.2 1B〜3B1.3GB〜2.0GBQwen 3(0.6B〜14B)523MB〜9.3GBWikipedia(完全版)最大57.18GBどちらを選ぶ?それとも両方?同氏はLLMとWikipediaの比較に関し、用途も違えば要件も違うと注意しています。オフラインWikipediaはロースペック端末でも問題なく動作し、LLMは応答を生成することが可能であるものの、CPUやメモリの要求が高いからです。単純に比較できるものではないものの、Wikipediaベスト5万件分のサイズがlama 3.2の3Bモデルに相当するのは興味深く、「厳密な比較ではないが、どちらも価値ある知識リソース」だとまとめています。この比較は「知識をローカルに保存する」発想を見直す良いきっかけになりそうです。推論能力を持つLLMと、検証可能な知識を持つWikipedia。それぞれの特性を理解しながら、必要に応じて両方を手元に置いておくのもひとつの選択肢かもしれません。