個人のローカルLLMの夢を実現するオープンソフトが2025年8月5日に公表された。
gpt-oss-120b
最大の特徴はメインメモリーが十分(65GB以上)有るPCならば動作するということ
俺の10年前の自作PC(16コア)でもインストール出来て、超高価なGPUも要らない。
PCのメインメモリーが32GB有る人はgpt-oss-20bだけでも十分使える。
自宅AIサーバーにすれば基本的な仕事に必要なマニュアル本は必要ないといえる。
エクセレント! 当然、膨大な学習データを作るには超高価なNvidiaのAIGPUと電力を湯水のごとく
使ったはずだ。 ローカルLLMの利点は、課金料が掛からず自分の仕事情報を外部と隔離できる。
(ローカル生成AIも同様) gpt-oss-120bレベルのローカルLLMによって
事務職員、プログラマー、Web製作者などの人材スキルが無用になりコンビニ店員と
同じ報酬(時給1000円程度)しか貰えない時代が到来したといえる。
凡人知能以下の殆どの人間は低賃金長時間か、AIロボットが不得意な3K仕事しかない
少数の持てる者と大多数の持たざる者の格差が顕著になるとどうなるのか?
将来の多数世代に同情を禁じ得ない。(人の革新,ニュータイプなど起こらない) gpt-oss-120Bとかコンテキストサイズ128Kしかない
こんなのじゃ100万行程度の中規模プログラムすら乗らない 昔なら、仕事に必要な資格スキルを取得すればそれなりの収入が得られて楽生活できた。
これから凡人が並みの学歴資格スキルでは最低賃金の仕事を掛け持ちしてやっと生活になる
課金してオンラインの大規模LLMが仕事で使える人も収入は大差なくなる
現在の日本が人手不足で一時的に賃金が上がってるが長くは続かないだろう。 そうだね
だから老人への公的支援を一切合切削る必要があるね 結局新規データに対しては追加学習しないといけないからローカルモデルの運用は無理なんだ
モデルが大きいほど追加学習は難しい
RAGなどはモデルが完璧でもベクトル探索がボトルネックになる LLMのすすめ
当然、人間の大部分を占める凡人が誰でもLLMを使いこなせないから、
個々に成功できる可能性がある。
理工系の学生なら文系のような盗作問題など基本的に無い、どんだけ
問題解決の能力で勝ち組と多数の負け組に分かれる。
幸いなことに、高級グラボPCに50万円以上など出せない貧困学生でも
中古PCのメモリーだけ増やせればローカルLLMを使って脳のスキルアップが可能
基礎学習から実際に近い物理シミュレーションまで脳を鍛えれば勝ち組になれるだろ
経済活動,金儲けもシミュレーション,分析の応用だからね。 >>12
>LLMは俺の名前すら知らない
基本的にLLMはインターネットに繋がってるビッグデータなどから自動学習している
大多数の一般人がデータに現れないのは、世界各国の政府が個人情報の取得と公開を
法律で禁止したからといえる。
ところが、世界中の国家、企業、団体は利用者の個人情報を取得して営利利用してる
から論理矛盾してる。
大多数の一般人が情報利用の平等化を要求するなら、基本的な個人情報を公開しなけ
ればならないだろう。
現在の世界人口80億人の基本データをLLMに追加しても少しのメモリー増加にしかならない。
さらに犯罪者ストーカー異常者など(奴らはターゲットの個人情報を既に取得している)
から自分と家族を守り対策するため情報が得られるだろう。 100億人の個人データが1kBとしても100TBになる
これはLLMの学習には大き過ぎる追加データ
既存の最高モデルもこのオーダーの学習データと言われているが2倍になると学習時間も金銭負担もやばくなる 個人情報が姓名、生年月日、性別、国籍、犯罪数ていどの圧縮データなら
100億人でも大した増加にならない、日本国内だけなら1.2億位でしかない。 米国と中共がAI技術の覇権を争い、日本は蚊帳の外でおこぼれにすがる
ユーザーは従来の高性能ハードウェアに依存しない小型で高速なLLMの実現
が可能となったが
スマホ,自動車等ローカルLLMが搭載され、AIが使えない人は飯が食えず貧困化
一部のインテリジェント層には天国でも大多数の一般人には地獄の未来か。 一般日本人はAI障害者認定法で、最低限度の生活保障で暮すことになる それでも貧困学生と貧乏人はフリーOSとLLMの恩恵を受けて知的学習が出来る
のだから開き直って、悲観する必要もない。
PCに50万100万円出費して時給ノルマで仕事する人以外は、安い中古PC、Win10
でもAIが10トークン/秒程度で答えてくれれば十分、お茶飲みながら学習できる。
猛暑の夏以外はPCの発熱も気にしなくて済むから
OSサポート終了などに便乗した馬鹿高いPC,スマホを買わせる詐欺に騙されるな。 安い中古PC(16GBメモリ)にLM Studio gpt-oss-20b をインストールすれば
AIが数分程度で正しく答えてくれる。(条件文をいろいろ変えると面白い)
質問例
あなたは6連式リボルバーでロシアンルーレットをしています。弾を1発だけ込め、シリンダーをランダムに回し、自分に向かって引き金を引きましたが空でした。あなたは
「もう1度シリンダーをランダムに回してから撃つか、それとも1段だけ回して撃つか」。
撃たれたくないあなたはどちらを選びますか? >>21
中古PC LM Studio gpt-oss-20b で実際に聞いてみればよい
質問文
9.11と9.9はどちらが大きいですか
答
9.9 の方が 9.11 より大きいです
と正しく答える。 WindowsのCopilotだと今でも間違う
答えは:9.11の方が大きいです。
さっき「9.11の方が大きい」と言いましたが、それは間違いでした。ごめんなさい!
(笑) >>20
ロシアンルーレット問題でgpt-oss-20bの答えは
”もう1度(拳銃の)シリンダーをランダムに回してから撃つ” LLM-20bクラスがCPU(16GB)でもそれなりに使えるようになった理由は
従来、単精度浮動小数点(4byte)の計算が量子化技術で4bit程度で済み
古いPCでもAVX2内蔵のCPUなら4-8倍の計算性能UPかつデータ量も縮小できたから。
お金使ったGPUの数で力押しより、ソフトウエア技術の恩恵が非常に大きい。 マトモな仕事もできず3K闇企業にコキ使われて破滅したくなければ、
自分でAIスキルを学習するしかない。 凡人知能で資産もない人が、3K闇企業にコキ使われたくないなら自活するしかない
自分専用のローカルLLMでAIスキルを学習すれば可能である。
例えば、個人がホームぺージ、在庫管理ソフト制作などを業者に依頼すればボッタクられ維持に
金を取られ続けるだろう。
ところが、LLMでAIにちゃんと指示すれば使えるホームぺージ在庫管理ソフトも作ってくれる
学生なら論文などに必要なデータ処理、シミュレーションソフトも指示言語で作ってくれる
もちろん自分で検証してバグを修正させるスキルが必要だが。
ハードに出費金は10万円として、PCを選べばエントリークラスのゲーミング
ノートPCが向いている。
(ディスクトップPCは落雷ブレーカーコンセント抜けなど瞬間的な停電対策が必要)
基本はAVX2内蔵の4コア8スレッド以上,メモリ16GB以上,SSD512GB以上で可能だが
GTX1000番以上VRAM4GB以上のグラボ内蔵なら計算時間がかなり短くできる。
(実際にお金が稼げた後にPCをグレードアップすればよい)
ローカルLLMのソフトウェア環境は全て公開されたフリーソフト,アプリで構築できる。
スタートアップは自分の意思だけ、貶しかできない奴らは野垂れ死にする運命だ。 プア―なAI設備環境で現実に必要な仕事を成功するコツは、作業を分割する事である
ローカルLLMのAIに対する指示も作業分割して具体的な指示をすることで可能になる。
アホな奴ほどちょっと誰かに聞けば分ったような妄想する、現実には何も分かっていない
アホのちょっと質問では何一つ解決しない、アホ妄想を叶えてくれるAIが欲しいらしい。 AI時代になってもアホはアホのままで誰かの餌食になるか野垂れ死に ローカルLLMを凡人学生が物理数学の学習に利用すれば、基本的な物理法則の公式説明
だけでなく、
ちょっと複雑な問題になると数学的に解けなくなるなるが、具体的にAIに指示すれば
数値計算で解く基本的なプログラムを書いてくれる。(後から最適化も可能だ)
まさに、疲れを知らない噛みついたりしない有能な専属アシスタントといえる。
(LLMだから当然だが、英文の翻訳など朝飯前) >>34
まあ120Bじゃ無理でしょうね
今の最先端モデルは一桁多いですから
自走力はなく数分が限界です LLM,AI技術ではもはや日本人が束になっても中国人に太刀打ちできない。
奴らはアメリカ,日本が先端半導体装置の輸出規制しても自国開発に邁進し
誰にも止められない。
(中国は6nm半導体の製造に成功、日本は40nmまでしか製造できない、ラピダス2nmはギャンブル)
中国・台湾では
個人ユースでもNvidiaのグラボを魔改造してVRAMを倍増するのが工場レベルだ。
プログラム制作の自動化はLLMモデル中国DeepSeekが抜きんでて速く、
ソフトウェア会社に丸投げしてぼったくられるのはAI無知のアホだけになる。 もはや日本人は少数になった若い世代も社会変化を望まず現状維持にしがみ付く
AIイノベーションなど起こらずガラパゴス化し衰退する運命か 個人情報規制、宗教・人権団体などが差別と称する言葉狩り等で情報不足がLLM学習を困難にする
つまり
曖昧で人間臭い無駄な情報などはパスして、法律・経済分野・科学技術のLLM学習に特化
すれば効果的といえる。
実際に多言語でプログラム制作、シミュレーション、マニュアル翻訳などは既に実用レベルに近いから
アホ大衆が期待するように答えるAIではなく、凡人でもプロ並みに実務を補助するLLMを
生成AIと一緒に使いこなせれば十分な所得が得られるだろう。
このスレッドでは具体的にローカルLLMを使って簡単に物理問題を解くことにしよう。 万能感を持ったアホ老人に現実を直視させる方法をaiに聞いてください 物理学は数学と共に科学,技術の中心であるから、簡単な物理問題を自分の脳で理解することは
曖昧性を排除した論理思考の訓練に最適といえる。
実際に解くのはLLM,PCにやらせればよい、昔はその単純計算に非常に多くの時間を要した。 抵抗値の異なるN個の電気抵抗を組み合わせて閉回路を作る
このとき、閉回路の作り方によって回路全体の合成抵抗が変わり得る
では、合成抵抗の取りうる値は何通りあるかNの関数として表せ
この問題をgpt-oss-120Bに投げたが解けなかった >このスレッドでは具体的にローカルLLMを使って簡単に物理問題を解くことにしよう。
ちなみに、このスレで実験に使うPCは10年以上前のXeonワークステーションPCで
Windows10(+wsl2Ubuntu)で2026年までサポート延長済み。
このオンボロPCを使い続ける訳は大容量メモリーと安価グラボRTX3060-12GBが使える
それにローカルLLMのgpt-oss-120bをインストールして使う。
(自宅でお茶を飲みながら実験なので回答速度を気にする必要などない、LLMが使えるのが重要、
冬は暖房に最適) >>43
オマエも”アホ大衆が期待するように答えるAI”を妄想してただけだ。
(そのたぐいが実現してれば大多数のアホ社員はとっくに失業してるだろ)
前にも書いてる様に解きたい問題を具体化し、分割してAIに指示すればいいのだよ
当たり前だが、指示者には問題を理解したうえで指示文を書ける知能レベルが必要だ。 >>45
電気・電子技術者なら常識だが、市販の抵抗,コンデンサは飛び飛びの値しか存在しない
E12系列(誤差10%)ならば
1.0 1.2 1.5 1.8 2.2 2.7 3.3 3.9 4.7 5.6 6.8 8.2 x10^N
しかない。
実務では増幅率、フィルター設計などで(平均)500Ωの抵抗が必要になっても系列に無い!
つまり、”限られた在庫の抵抗種類だけで最も500Ωに近い合成抵抗を作りたい”
(平均)誤差と精度のトレードオフで3個の合成抵抗までとする。
それらの条件を入力すれば必要な抵抗値に最も近い組み合わせを自動で計算してくれる
プログラムを指定言語でLLMを利用して作る。
のがゴールになる >>46
プログラム言語も書けない凡人技術者でも、LLMを使えば短時間で作れる
という実験に最適。(結果値を検証する別プログラムも一緒に作ればベスト)
注意:俺様妄想だけでLLMに要求するようなキチガイは始めから無理筋。 つまりAIは物理・数学の問題を解くのは苦手ということ
>>43
の問題を解けないのだから
だから全く別の問題に変えるしかない この程度の問題すら解けないならミレニアム問題を解かせるなど夢のまた夢か そりゃ入試問題すら完答できないレベルなんだから解けるわけない