メインコンテンツへスキップ
マーケット
Meme Pump
戦略
トラッカー
スマートマネーを追跡し、リアルタイムで動きを確認する
リーダーボード
トップトレーダーをフォローし、動きをそのまま反映する
シグナル
現物市場のシグナルを捉え、あらゆるチャンスをつかむ
スワップ
ポートフォリオ
紹介
OnchainOS
ウォレット API
API ドキュメント
API キーを管理する
X Layer
X Layer について学ぶ
X Layer エクスプローラー
チェーン間取引
開発者向けテクニカルドキュメント
テストネットフォーセット
GitHub
ブロックチェーンエクスプローラー
さらに見る
DeFi
マケプレ
セキュリティ
Boost
X Launch
参加してトークンを獲得しよう
X キャンペーン
参加して報酬を獲得しよう
報酬センター
ボーナスとエアドロップを受け取る
アラート
言語
通貨
DEX の機能
色の好み
OKX ウォレットをダウンロード
Web3 の詳細
お知らせ
戻る
日本語
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
Norsk (bokmål)
Suomi
Svenska
Türkçe
戻る
戻る
詳しく知る
サポートセンター
戻る
トークン名を翻訳
X のコンテンツを翻訳
ホバーするとトークンカードが表示されます
トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
Hosico
+13.54%
USELESS
+14.32%
IKUN
+12.23%
gib
+7.75%
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
Bonk
+3.11%
ALON
+8.02%
LAUNCHCOIN
+10.67%
GOONC
+2.6%
KLED
+13%
#
Boop.Fun leading the way with a new launchpad on Solana.
BOOP
-0.14%
Boopa
+9%
PORK
0.00%
Profile
vLLM
vLLM
6時間前
LFM2-24B-A2Bの@liquidaiチーム、おめでとうございます!🎉 vLLM安定版✅におけるLFM2-24B-A2Bのデイ0サポート 合計24Bのパラメータで、トークンあたりアクティブは2Bのみ — 32GB RAMに収まり、H100 🔥で293 tok/sを達成します
088339
22時間前
本日、最大のLFM2モデルであるLFM2-24B-A2B 🐘をリリースします > 24Bの総パラメータ > 1トークンあたり23億のアクティブ > ハイブリッドでハードウェア対応のLFM2アーキテクチャを基盤としています LFM2の高速でメモリ効率の高い設計とMixtur of Expertのセットアップを組み合わせており、各実行で23億パラメータのみが有効化されます。 その結果、クラス最高の効率、高速なエッジ推論、予測可能な対数線形スケーリングが32GBの2BアクティブMoEフットプリントで実現されました。 🧵
2
vLLM
16時間前
🎉 Qwen3.5 ミディアムモデルシリーズ — Qwen3.5-35B-A3B、122B-A10B、27B 🚀🚀🚀 @Alibaba_Qwen おめでとうございます より多くの知能を、少ない計算――まさにオープンソースコミュニティが喜ぶものです! 今すぐvLLMでレシピをチェックして、すべて試してみてください!
Qwen
20時間前
🚀 Qwen 3.5 ミディアムモデルシリーズの紹介 Qwen3.5-フラッシュ ·Qwen3.5-35B-A3B ·Qwen3.5-122B-A10B ·Qwen3.5-27B ✨ 知能は増やし、計算は減らします。 • Qwen3.5-35B-A3Bは現在、Qwen3-235B-A22B-2507およびQwen3-VL-235B-A22Bを上回り、より良いアーキテクチャ、データ品質、強化学習が単にパラメータ数を増やすだけでなく、知能を前進させることができることを思い出させてくれます。 • Qwen3.5-122B-A10Bおよび27Bは、特により複雑なエージェントシナリオにおいて、中規模モデルとフロンティアモデルのギャップを縮め続けています。 • Qwen3.5-Flashは35B-A3Bと連携したホスト版で、以下を特徴としています: – デフォルトで1Mコンテキスト長 – 公式組み込みツール 🔗 ハグフェイス: 🔗 モデルスコープ: 🔗 Qwen3.5-Flash API: Qwenチャット👇で試してみて フラッシュ: 27B: 35B-A3B: 122B-A10B: どんな作品を作っているのかぜひ聞かせてください。
11
vLLM
2月12日 02:44
🔥GLM-5のローンチを@Zai_orgおめでとうございます — 744Bパラメータ(40Bアクティブ)、28.5Tトークンで訓練、DeepSeek Sparse Attentionを統合して展開コストを管理しつつ長期コンテキスト容量を維持しています。 vLLMはGLM-5-FP8のデイ0サポートを行っています。 📖 効率的な長期コンテキストサービングのためのDeepSeek Sparse Attention(スパースアテンシャル) ⚡️ MTPの推測的復号 ⚙️ ツールコール+思考モード サービング設定とベンチマークを含むレシピ: 🔗
43
トップ
ランキング
お気に入り