OpenAI「gpt-oss-120b」の衝撃

レス数: 95

概要: 個人のローカルLLMの夢を実現するオープンソフトが2025年8月5日に公表された。 gpt-oss-120b 最大の特徴はメインメモリーが十分(65GB以上)有るPCならば動作するということ 俺の10年前の自作PC(16コア...
No.1
個人のローカルLLMの夢を実現するオープンソフトが2025年8月5日に公表された。
gpt-oss-120b
最大の特徴はメインメモリーが十分(65GB以上)有るPCならば動作するということ
俺の10年前の自作PC(16コア)でもインストール出来て、超高価なGPUも要らない。
PCのメインメモリーが32GB有る人はgpt-oss-20bだけでも十分使える。
自宅AIサーバーにすれば基本的な仕事に必要なマニュアル本は必要ないといえる。
エクセレント!
No.2
当然、膨大な学習データを作るには超高価なNvidiaのAIGPUと電力を湯水のごとく
使ったはずだ。
No.3
GPT5でいいよね
No.4
ローカルLLMの利点は、課金料が掛からず自分の仕事情報を外部と隔離できる。
(ローカル生成AIも同様)
No.5
gpt-oss-120bレベルのローカルLLMによって
事務職員、プログラマー、Web製作者などの人材スキルが無用になりコンビニ店員と
同じ報酬(時給1000円程度)しか貰えない時代が到来したといえる。
凡人知能以下の殆どの人間は低賃金長時間か、AIロボットが不得意な3K仕事しかない
少数の持てる者と大多数の持たざる者の格差が顕著になるとどうなるのか?
将来の多数世代に同情を禁じ得ない。(人の革新,ニュータイプなど起こらない)
No.6
だからどうした?
No.7
gpt-oss-120Bとかコンテキストサイズ128Kしかない
こんなのじゃ100万行程度の中規模プログラムすら乗らない
No.8
昔なら、仕事に必要な資格スキルを取得すればそれなりの収入が得られて楽生活できた。
これから凡人が並みの学歴資格スキルでは最低賃金の仕事を掛け持ちしてやっと生活になる
課金してオンラインの大規模LLMが仕事で使える人も収入は大差なくなる
現在の日本が人手不足で一時的に賃金が上がってるが長くは続かないだろう。
No.9
そうだね
だから老人への公的支援を一切合切削る必要があるね
No.10
結局新規データに対しては追加学習しないといけないからローカルモデルの運用は無理なんだ
モデルが大きいほど追加学習は難しい
RAGなどはモデルが完璧でもベクトル探索がボトルネックになる
No.11
LLMのすすめ
当然、人間の大部分を占める凡人が誰でもLLMを使いこなせないから、
個々に成功できる可能性がある。
理工系の学生なら文系のような盗作問題など基本的に無い、どんだけ
問題解決の能力で勝ち組と多数の負け組に分かれる。
幸いなことに、高級グラボPCに50万円以上など出せない貧困学生でも
中古PCのメモリーだけ増やせればローカルLLMを使って脳のスキルアップが可能
基礎学習から実際に近い物理シミュレーションまで脳を鍛えれば勝ち組になれるだろ
経済活動,金儲けもシミュレーション,分析の応用だからね。
No.12
LLMは俺の名前すら知らない
No.13
>>12

>LLMは俺の名前すら知らない
基本的にLLMはインターネットに繋がってるビッグデータなどから自動学習している
大多数の一般人がデータに現れないのは、世界各国の政府が個人情報の取得と公開を
法律で禁止したからといえる。
ところが、世界中の国家、企業、団体は利用者の個人情報を取得して営利利用してる
から論理矛盾してる。
大多数の一般人が情報利用の平等化を要求するなら、基本的な個人情報を公開しなけ
ればならないだろう。
現在の世界人口80億人の基本データをLLMに追加しても少しのメモリー増加にしかならない。
さらに犯罪者ストーカー異常者など(奴らはターゲットの個人情報を既に取得している)
から自分と家族を守り対策するため情報が得られるだろう。
No.14
100億人の個人データが1kBとしても100TBになる
これはLLMの学習には大き過ぎる追加データ
既存の最高モデルもこのオーダーの学習データと言われているが2倍になると学習時間も金銭負担もやばくなる
No.15
個人情報が姓名、生年月日、性別、国籍、犯罪数ていどの圧縮データなら
100億人でも大した増加にならない、日本国内だけなら1.2億位でしかない。
No.16
米国と中共がAI技術の覇権を争い、日本は蚊帳の外でおこぼれにすがる
ユーザーは従来の高性能ハードウェアに依存しない小型で高速なLLMの実現
が可能となったが
スマホ,自動車等ローカルLLMが搭載され、AIが使えない人は飯が食えず貧困化
一部のインテリジェント層には天国でも大多数の一般人には地獄の未来か。
No.17
一般日本人はAI障害者認定法で、最低限度の生活保障で暮すことになる
No.18
それでも貧困学生と貧乏人はフリーOSとLLMの恩恵を受けて知的学習が出来る
のだから開き直って、悲観する必要もない。
PCに50万100万円出費して時給ノルマで仕事する人以外は、安い中古PC、Win10
でもAIが10トークン/秒程度で答えてくれれば十分、お茶飲みながら学習できる。
猛暑の夏以外はPCの発熱も気にしなくて済むから
OSサポート終了などに便乗した馬鹿高いPC,スマホを買わせる詐欺に騙されるな。
No.19
爺には困ったものだ
No.20
安い中古PC(16GBメモリ)にLM Studio gpt-oss-20b をインストールすれば
AIが数分程度で正しく答えてくれる。(条件文をいろいろ変えると面白い)
質問例
あなたは6連式リボルバーでロシアンルーレットをしています。弾を1発だけ込め、シリンダーをランダムに回し、自分に向かって引き金を引きましたが空でした。あなたは
「もう1度シリンダーをランダムに回してから撃つか、それとも1段だけ回して撃つか」。
撃たれたくないあなたはどちらを選びますか?
No.21
9.11と9.9の大小関係は間違える
No.22
>>21

中古PC LM Studio gpt-oss-20b で実際に聞いてみればよい
質問文
9.11と9.9はどちらが大きいですか

9.9 の方が 9.11 より大きいです
と正しく答える。
No.23
WindowsのCopilotだと今でも間違う
答えは:9.11の方が大きいです。
さっき「9.11の方が大きい」と言いましたが、それは間違いでした。ごめんなさい!
(笑)
No.24
>>20

ロシアンルーレット問題でgpt-oss-20bの答えは
”もう1度(拳銃の)シリンダーをランダムに回してから撃つ”
No.25
LLM-20bクラスがCPU(16GB)でもそれなりに使えるようになった理由は
従来、単精度浮動小数点(4byte)の計算が量子化技術で4bit程度で済み
古いPCでもAVX2内蔵のCPUなら4-8倍の計算性能UPかつデータ量も縮小できたから。
お金使ったGPUの数で力押しより、ソフトウエア技術の恩恵が非常に大きい。
No.26
回分すら作れないゴミ
No.27
アホ、”回文”作りとかで飯が食えるか!
No.28
マトモな仕事もできず3K闇企業にコキ使われて破滅したくなければ、
自分でAIスキルを学習するしかない。
No.29
さっさと死ね老害
No.30
文字数制限しても守らないゴミ
No.31
凡人知能で資産もない人が、3K闇企業にコキ使われたくないなら自活するしかない
自分専用のローカルLLMでAIスキルを学習すれば可能である。
例えば、個人がホームぺージ、在庫管理ソフト制作などを業者に依頼すればボッタクられ維持に
金を取られ続けるだろう。
ところが、LLMでAIにちゃんと指示すれば使えるホームぺージ在庫管理ソフトも作ってくれる
学生なら論文などに必要なデータ処理、シミュレーションソフトも指示言語で作ってくれる
もちろん自分で検証してバグを修正させるスキルが必要だが。
ハードに出費金は10万円として、PCを選べばエントリークラスのゲーミング
ノートPCが向いている。
(ディスクトップPCは落雷ブレーカーコンセント抜けなど瞬間的な停電対策が必要)
基本はAVX2内蔵の4コア8スレッド以上,メモリ16GB以上,SSD512GB以上で可能だが
GTX1000番以上VRAM4GB以上のグラボ内蔵なら計算時間がかなり短くできる。
(実際にお金が稼げた後にPCをグレードアップすればよい)
ローカルLLMのソフトウェア環境は全て公開されたフリーソフト,アプリで構築できる。
スタートアップは自分の意思だけ、貶しかできない奴らは野垂れ死にする運命だ。
No.32
プア―なAI設備環境で現実に必要な仕事を成功するコツは、作業を分割する事である
ローカルLLMのAIに対する指示も作業分割して具体的な指示をすることで可能になる。
アホな奴ほどちょっと誰かに聞けば分ったような妄想する、現実には何も分かっていない
アホのちょっと質問では何一つ解決しない、アホ妄想を叶えてくれるAIが欲しいらしい。
No.33
AI時代になってもアホはアホのままで誰かの餌食になるか野垂れ死に
No.34
GPT5と比べるとoss-120Bは弱すぎて駄目
No.35
ローカルLLMを凡人学生が物理数学の学習に利用すれば、基本的な物理法則の公式説明
だけでなく、
ちょっと複雑な問題になると数学的に解けなくなるなるが、具体的にAIに指示すれば
数値計算で解く基本的なプログラムを書いてくれる。(後から最適化も可能だ)
まさに、疲れを知らない噛みついたりしない有能な専属アシスタントといえる。
(LLMだから当然だが、英文の翻訳など朝飯前)
No.36
>>34

まあ120Bじゃ無理でしょうね
今の最先端モデルは一桁多いですから
自走力はなく数分が限界です
No.37
LLM,AI技術ではもはや日本人が束になっても中国人に太刀打ちできない。
奴らはアメリカ,日本が先端半導体装置の輸出規制しても自国開発に邁進し
誰にも止められない。
(中国は6nm半導体の製造に成功、日本は40nmまでしか製造できない、ラピダス2nmはギャンブル)
中国・台湾では
個人ユースでもNvidiaのグラボを魔改造してVRAMを倍増するのが工場レベルだ。
プログラム制作の自動化はLLMモデル中国DeepSeekが抜きんでて速く、
ソフトウェア会社に丸投げしてぼったくられるのはAI無知のアホだけになる。
No.38
もはや日本人は少数になった若い世代も社会変化を望まず現状維持にしがみ付く
AIイノベーションなど起こらずガラパゴス化し衰退する運命か
No.39
AI が未だに黒人とゴリラを間違える件
No.40
個人情報規制、宗教・人権団体などが差別と称する言葉狩り等で情報不足がLLM学習を困難にする
つまり
曖昧で人間臭い無駄な情報などはパスして、法律・経済分野・科学技術のLLM学習に特化
すれば効果的といえる。
実際に多言語でプログラム制作、シミュレーション、マニュアル翻訳などは既に実用レベルに近いから
アホ大衆が期待するように答えるAIではなく、凡人でもプロ並みに実務を補助するLLMを
生成AIと一緒に使いこなせれば十分な所得が得られるだろう。
このスレッドでは具体的にローカルLLMを使って簡単に物理問題を解くことにしよう。
No.41
万能感を持ったアホ老人に現実を直視させる方法をaiに聞いてください
No.42
物理学は数学と共に科学,技術の中心であるから、簡単な物理問題を自分の脳で理解することは
曖昧性を排除した論理思考の訓練に最適といえる。
実際に解くのはLLM,PCにやらせればよい、昔はその単純計算に非常に多くの時間を要した。
No.43
抵抗値の異なるN個の電気抵抗を組み合わせて閉回路を作る
このとき、閉回路の作り方によって回路全体の合成抵抗が変わり得る
では、合成抵抗の取りうる値は何通りあるかNの関数として表せ
この問題をgpt-oss-120Bに投げたが解けなかった
No.44
>このスレッドでは具体的にローカルLLMを使って簡単に物理問題を解くことにしよう。
ちなみに、このスレで実験に使うPCは10年以上前のXeonワークステーションPCで
Windows10(+wsl2Ubuntu)で2026年までサポート延長済み。
このオンボロPCを使い続ける訳は大容量メモリーと安価グラボRTX3060-12GBが使える
それにローカルLLMのgpt-oss-120bをインストールして使う。
(自宅でお茶を飲みながら実験なので回答速度を気にする必要などない、LLMが使えるのが重要、
冬は暖房に最適)
No.45
>>43

オマエも”アホ大衆が期待するように答えるAI”を妄想してただけだ。
(そのたぐいが実現してれば大多数のアホ社員はとっくに失業してるだろ)
前にも書いてる様に解きたい問題を具体化し、分割してAIに指示すればいいのだよ
当たり前だが、指示者には問題を理解したうえで指示文を書ける知能レベルが必要だ。
No.46
>>45

電気・電子技術者なら常識だが、市販の抵抗,コンデンサは飛び飛びの値しか存在しない
E12系列(誤差10%)ならば
1.0 1.2 1.5 1.8 2.2 2.7 3.3 3.9 4.7 5.6 6.8 8.2 x10^N
しかない。
実務では増幅率、フィルター設計などで(平均)500Ωの抵抗が必要になっても系列に無い!
つまり、”限られた在庫の抵抗種類だけで最も500Ωに近い合成抵抗を作りたい”
(平均)誤差と精度のトレードオフで3個の合成抵抗までとする。
それらの条件を入力すれば必要な抵抗値に最も近い組み合わせを自動で計算してくれる
プログラムを指定言語でLLMを利用して作る。
のがゴールになる
No.47
>>46

プログラム言語も書けない凡人技術者でも、LLMを使えば短時間で作れる
という実験に最適。(結果値を検証する別プログラムも一緒に作ればベスト)
注意:俺様妄想だけでLLMに要求するようなキチガイは始めから無理筋。
No.48
つまりAIは物理・数学の問題を解くのは苦手ということ
>>43
の問題を解けないのだから
だから全く別の問題に変えるしかない
No.49
この程度の問題すら解けないならミレニアム問題を解かせるなど夢のまた夢か
No.50
そりゃ入試問題すら完答できないレベルなんだから解けるわけない
No.51
>>46-47

俺の中古PC+gpt-oss-120b で実際に
E12系列(100~820)から3個まで使って合成抵抗が500Ωに最も近くなる計算を指示すると、
ちゃんと指定言語のソースコードを書きだしてくれる。(アルゴリズムも分る)
(どうやって実行してるのか???不明だが、嘘の答えも吐くから注意!)
PCの言語実装で実行させると正解を出力する。 100,180,220 の直列接続。
No.52
合成抵抗の目標を505Ωに変更してPCで実行すると
470と470の並列接続に270の直列接続 正解を出力する。
No.53
手持ちの抵抗(コンデンサ)リストを入力コマンドで指定できるように改良すれば
実用性が増し、試作の電子回路などが速く完成できるだろう。
No.54
コンパイルして.exeをつくればモバイルPCでも直ぐ使える、LLMは必要ない。
No.55
虱潰し法、偏微分方程式など数値計算アルゴリズムはサイズが大きいと計算時間が発散する
サイズを抑えて、C++,OpenMPなどでコンパイルした実行形式ならモバイルPCでも実用になる
LLMに指示する時に言語指定すればよい。
当然だが必要なコンパイラ、ランタイムライブラリはPCにインストールして置くこと。
No.56
共通テスト解かせたら8割しか取れなかったんだが…
No.57
>>55

以上から分るように物理的な問題でローカルLLMに1問1答だけしても応答が非常に遅く
時間の無駄でしかない、おまけにAIが(間違った認識?)噓を回答することも多い。
しかし、具体的に物理問題を解くプログラムを指示すると、ソースコードがバグ無しで実行でき
正解が得られるほうが多い。
さらに問題を解くアリゴリズムの説明もしてくれるから、人が自分で学習、改良ができる
一石二鳥といえる。
No.58
次に、理想的な平行板コンデンサの容量の式 c = e0・S/d
が実際の有限長のコンデンサ容量とどれだけ違うのか計算する方法だ。
(2ちゃんねる物理の頃、くっくっくとかがインチキだと主張して騒いだ。)
電磁気学を学習済みの人ならば、有限長コンデンサの端から電場(電気力線)
がはみ出してるからS/d比が大きいほど理想静電容量より大きくなると予想できる。
しかし、普通の電磁気学の教科書、練習問題には無い。(数学的に解けない例)
No.59
>>58

>S/d比が大きいほど理想静電容量より大きくなると予想できる。
訂正
-> S/d比が小さいほど理想静電容量より大きくなると予想できる。
つまり、平面板コンデンサの端より十分大きい3D空間領域で電場(ポテンシャル)
の数値計算すれば、実測に近い値が得られる。
No.60
具体的に
平行板コンデンサ(導体)の表面積1m^2(厚さ無視できる)、平行板の距離0.5m、
真空空間の計算範囲 2m の条件で、ラプラス方程式を解くプログラムをC++で作る。
gpt-oss-20b が出したC++コードをコンパイルして実行した結果は
理想平行板コンデンサの静電容量    1.771x10^-11 (17.71pF)
S=1,d=0.5 平行板コンデンサの静電容量 2.103x10^-11 (21.03pF)
これがgpt-oss-120bの威力なのか! 俺が学生時代は夢だったのが実現したといえる。
No.61
>>56

MARCHくらいのレベルってことかw
No.62
>>60

ラプラス方程式(∇^2φ=0)を解く、の物理解釈は空間全体の静電エネルギーが最小になる
という意味である。 つまり、エネルギーの最小値問題に帰着する。
No.63
21世紀になれば個人ユースのPCは32bitが主流で完結すると予想してたが
人間の知的欲求はきりがないようだ、動画処理などで64bitPC(OS)の普及し
生成AI、ローカルLLMも可能になった。
将来、自律AIに人間が滅ぼされても、身から出た錆だと笑って言える。
No.64
2025.10でマイクロソフトが公式にはWindows10のサポート終了
PCを無料アカウント登録で1年延長できる。全体の半数に近いPCが
Windows10なのでセキュリテイアップデートは続くだろう。
ローカルLLM自体もアップデートで強化され古いWindows10PCでも
趣味で使うならSSD,メモリ増設くらいで十分だ。
(PC買い替えボッタクリに騙されるな)
No.65
>ローカルLLM自体もアップデートで強化され古いWindows10PCでも
>趣味で使うならSSD,メモリ増設くらいで十分だ。
21世紀には人工知能の時代が来ると予想はしてたが、個人が当たり前に使える
とは予想できなかった。長生きできてかった(痴呆化、逝った友人もいる)
もはや現代の科学研究でAI環境無しに研究者は研究活動が出来ないといえる
個人環境でも、計算が複雑で出来なかったプログラムの作成や実験装置が
AIのアドバイスで製作できる。(悪用して犯罪行為をしなければ)
俺が自分の趣味を全うできるまで、日本国が平穏に続くことを願うだけ。
No.66
>もはや現代の科学研究でAI環境無しに研究者は研究活動が出来ない
短期間に(捏造ではなく)実質成果が出せない研究者はクビになる。
No.67
中古ノートPCを何台か買ってローカルLLMがまともに動くか試したが
CPUがintel-10世代以上ryzen3000 以上ならGPU無しでも
8b(x10^9)以下のLLMで10トークン/sec程度のレスポンスが得られる。
ただし、メインメモリは16GBに増設が必要。(数千円程度)
ローカルLLMソフト進化は凄まじく専用GPUを必要としないレベルだ。
データセンターのグラウドAIでは顧客数が数万以上を想定してるから
膨大なGPU・電力リソースが必要なだけで、個人・趣味が目的ならば
自由に何時でも使えるローカルLLMで必要十分といえる。
No.68
豚に真珠
爺にAI
No.69
LLM-AIの回答速度はメインDRAM,VRAMのデータ転送速度が上限となって
それを超える演算ユニットは不要になる。
大量のメモリデータのアクセスが必要な偏微分方程式、行列演算、LLM
は大容量,高速のDRAMが必要不可欠だからだ。
つまり、個人向けPCならばDDR6メモリ搭載の機種が有利といえる。
No.70
γの逆数をγと再定義する問題点をAIに聞いてみろ
No.71
AI
物理学において、変数の記号は基本的に自由に定義して問題ありません。
第三者とのコミュニケーションの問題・・・
5ちゃん物理は学術論文の披露とかでないから
他人が立てたスレテーマに便利目的で記号や定義したのを認めないなら
スルーすればいいだけだが、精神異常者がスレ荒らしが目的としか言えない
>>70
No.72
異常者は他の異常者が多数立てたスレッドをなぜか荒らさない(同類同士)
No.73
poemは物理板だけでなく他の5ちゃん板も多数荒らしてる犯罪レベルの異常者
No.74
相対論でローレンツ因子 (\gamma = \frac{1}{\sqrt{1 - v^2/c^2}}) の逆数を「新しい (\gamma)」として再定義する場合、以下のような問題点があります。
***
### **1. 標準的な記法との不整合**
* 物理学や工学の文献では (\gamma) はほぼ普遍的に (\gamma = \frac{1}{\sqrt{1 - v^2/c^2}}) と定義されています。
* 逆数を (\gamma) と呼ぶと、既存の教科書や論文との互換性が失われ、混乱を招きます。
***
### **2. 数式や導出の混乱**
* 運動量やエネルギーの式は (\gamma) を使って表されます(例:(E = \gamma mc^2)、(p = \gamma mv))。
* 逆数を (\gamma) とすると、これらの式が誤解され、導出過程で符号や係数の整合性が崩れます。
***
### **3. 物理的意味の曖昧化**
* 現行の (\gamma) は「時間の遅れ」や「質量増加」を表す重要な因子です。
* 逆数はしばしば (\beta) や (\sqrt{1 - v^2/c^2}) として扱われますが、これを (\gamma) と呼ぶと、どちらが「時間の伸び」を表すのか不明確になります。
***
### **4. 教育・コミュニケーション上の障害**
* 学習者や研究者間での共通理解が崩れ、誤解や計算ミスが増える可能性があります。
* 特に国際的な議論や論文で混乱を引き起こします。
***
**まとめると**:記号の再定義は、標準化された記法との互換性を損ない、物理的意味や計算の一貫性を崩すため、強く推奨されません。
***
No.75
>>74

>* 学習者や研究者間での共通理解が崩れ、誤解や計算ミスが増える可能性があります。
>* 特に国際的な議論や論文で混乱を引き起こします。
そもそも、始めから"時間が無い”原理からして教科書の相対論でない自説スレッドで
スレ主が便利な記号定義に文句をわめいても無意味だ。
記号定義を認めたくないならスレ全部スルーすればいいだけ、しないのは妨害目的の
スレ荒らしだ。
No.76
>74
>「時間の伸び」を表す
>>75

の説では「物が縮む」を表す、のが基本原理だからね
No.77
>>74

>運動量やエネルギーの式は (\gamma) を使って表されます
>>75

の説では「時間が無い」「物が縮む」原理で、座標変換で角運動量を不変にする定義から
その逆数で打ち消して運動量の定義が出る。同様にエネルギーの定義でも逆数になる。
以上から、物理教科書の相対論の導出とは異なる説だと分かるだろ。
そもそも違う説のスレッドだから、記号の定義などどうでもいいことだ。
No.78
>>77

そのスレ説からも、SI国際単位でプランク定数が普遍定数なのか?直ぐ判る。
No.79
ついでに「時間レス」説を披露すると
物理の時間とは同じ繰り返し運動が始めに有り、後から人間が定義して作った
便利なパラメータである。 T = x/v
人間の時間感覚とは「脳の海馬」中の神経回路を外部からの情報が周回運動する
テンポラリな遅延記憶回路から作られると推測できる。
だから「脳の海馬」に障害が起これば、”時間が飛び飛びになる”など時間認識
が出来なくなる。
人間が原始から誰でも時間感覚があり、古代から宗教国家が住民の時間を支配しよう
としていたのか分かる。
「時間レス」説で物理を記述できることを検証することで、時間ありきから解放され
人は自由になれる。
No.80
βακα
No.81
>>79

流体力学の権威、今井功が電磁気学を流体力学から再構築して
「電磁気学を考える」に纏めた。
電磁気学が流体力学からサブセットとして構築出来るならば
時間レス(位置,速度)の物理から電磁気学を構築するのは
可能であり流体力学的な時間レス記述が最適といえる。
現代の驚異であるAIとコンピュータシミュレーション環境を使って
時間レスの電磁気学を再構築するのは凡人レベルの知能でも可能だ。
No.82
くそすれ
No.83
そのうちWindowsには最初からローカルLLM
がバンドルされてくるようになるかもしれ
ないな。そうして毎月1TBを越えるWindows
Updateをあてないといけなくなるかも。
技術の進歩は人類を幸福にするのだろうか?
No.84
>>83

>毎月1TBを越えるWindowsUpdateをあてないといけなくなる
俺は(古い)WS.PCにLM Studio入れていろんなLLMを試してるが
プラットホームのLM Studioが短期間にアップデートを繰り返してる
エンジンのCUDA、Vulkan,Lilama が不安定でGPUのVRAM量で使えたり
使えなかったりする。
それでも、高速化,安定版に近づいているといえる。
No.85
>>84

エンジンのVulkanは特定GPUに依存せずアップデートでCPU内蔵GPUでもそれなりに使える
将来的に低電力ノートPCで使えるローカルLLMハンドルも可能だろう。
No.86
むやみにLLMプラットホームをアップデートしないのが正解
自分のPCでLLMが正常動作を確認したらそのままの状態で使う。
No.87
>>83

Windows 11 26H2のリリースの記事が最近出てたが
AIアシスタント「Copilot」仕様を満たすAI-NPU内蔵が前提でAIエージェント機能の大幅強化
が目玉
つまり、仕様を満たさない従来のPCは恩恵が受けられずメモリー使用量だけ増えて動作が遅くなる
PC値上がりでメリットが無いから25H2のまま使い続けるのが吉。(個人用Windows10なら大吉)
No.88
今にMSがWindowsにローカルLLMを載せてくる
日も近いな。
No.89
貧困者,学生に朗報
最近ローカルLLMのプラットフォームが急速に改善され
GPU無しのノートPC環境でも10トークン/sの実用速度が得られる
テスト環境
中古ノートPC CPU AVX2(4世代以降)RAM 16GB SSD 256GB
ローカルLLM Granite 4.0 Tiny (7b相当)
プラットホーム LM Studio
基本的な物理,数学,プログラミングに十分、マイクロソフトの課金地獄に堕ちすに済む。
No.90
富士通、AIでソフトウェア開発の全自動化で生産効率100倍
今でもコンビニ店員並みの時給プログラマーも失業する時代が到来か
No.91
一般人に最後まで残された仕事は宅配の配達員かも
配達員が重い荷物持って走るのは1件当たり数十円の歩合制だから走って時間短縮する
しか稼ぎを上げられないから
No.92
>>1

OpenAIこそ世界の味方だと思う。
Claudeに浮かれている世の中はなんにもわかってない。それは搾取されているんだよ。Claude Codeでプログラミング? しょうもないアプリをブラックボックスとして生成しているだけだよ。技術から学べよ。
ローカルLLMは使わせてもらいながら、使い分けてOpenAIのサービスにぜひ課金してサポートしようと思う。
No.93
IT,AIでもアメリカの属国化した日本の大企業は殆ど米IT,AI課金サービスに飲み込まれてる
当然、大手の社畜社員も米IT,AIサブスク奴隷の中で無用になりクビ切りまで働くしかない。
フリーのローカルLLMを最後まで使い続けるのは趣味の自由人と貧乏学生くらいだろ
No.94
>>89

最近公開された日本語対応の無料ローカルLLM
NVIDIA Nemotron-Nano-9B-v2-Japanese (9b相当)
ノートPC 16GB 環境でも十分使える
お試しあれ。
No.95
>>93

ローカルLLMにしておくと、安全に、RAGから独自のコンテキストを挿入できる
クラウド版のAIシステムは、やがては今のSaaSのような立ち位置になるでしょう
できる人はどんどんオンプレミスでシステム構築していけるからね