すぐに導入し
トラッキングとバージョン、
管理を自動化
- 5行のコードでトラッキング、バージョン管理、可視化を開始
- 全てのチェックポイントからモデルを再現
- CPUおよびGPUユーセージをリアルタイムでモニタリング
# 1. Start a W&B run
run = wandb.init(project="my_first_project")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics to visualize performance over time
for i in range(10):
run.log({"loss": loss})
# 1. Start a new run
run = wandb.init(project="gpt4")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics to visualize performance over time
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
run = wandb.init(project="gpt5")
config = run.config
config.dropout = 0.01
run.watch(model)
for batch_idx, (data, target) in enumerate(train_loader):
...
if batch_idx % args.log_interval == 0:
# 4. Log metrics to visualize performance
run.log({"loss": loss})
from wandb.keras import (
WandbMetricsLogger,
WandbModelCheckpoint,
)
# 1. Start a new run
run = wandb.init(project="gpt-4")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
... # Define a model
# 3. Log layer dimensions and metrics
wandb_callbacks = [
WandbMetricsLogger(log_freq=5),
WandbModelCheckpoint("models"),
]
model.fit(
X_train, y_train, validation_data=(X_test, y_test),
callbacks=wandb_callbacks,
)
wandb.init(project="visualize-sklearn")
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels,
model_name="SVC", feature_names=None)
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test, model_name="Ridge")
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name="KMeans")
# 1. Define which wandb project to log to and name your run
run = wandb.init(project="gpt-5", run_name="gpt-5-base-high-lr")
# 2. Add wandb in your `TrainingArguments`
args = TrainingArguments(..., report_to="wandb")
# 3. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(..., args=args)
trainer.train()
from wandb.xgboost import wandb_callback
# 1. Start a new run
run = wandb.init(project="visualize-models")
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb_callback()])
# Get predictions
pred = bst.predict(xg_test)
データを可視化して
重要なインサイトを導出
- リアルタイムでメトリックやデータセット、ログ、コード、システム情報などをモニタリング
- チーム全員が共同で状況を分析し、次の一手を検討する
- 横並びの比較によってデバグを効率化し、繰り返しビルドできる

パフォーマンスを上げることで、自信を持ってモデルを評価し、デプロイ
- 実験におけるコラボレーションからベストモデルを見つける
- モデルの評価、バグの検証、進捗の見える化
- 全てのステークホルダーにレポートを共有

Weights & Biasesの エコシステム
最先端のMLプラットフォームが、あなたの チーム全体を活性化 させる
重複作業をなくし、ML開発の全ての詳細を自動的にトラッキングしましょう
結果を可視化し、ドラッグ・アンド・ドロップで分析 - あなたのベストモデルは数クリック先です

MLエンジニアによって設計された機械学習ワークフロー
合理的なMLワークフローを段階的に構築。すべてのステップで設定とカスタマイズが可能です。インテリジェントなデフォルトを活用すれば、車輪の再発明をすることはありません。

全ての履歴を記録し、再現可能にする記録システム (SoR)
あらゆる実験結果を瞬時に再現。そこに到達するまでの変更が記録されているので、チームメンバーがお互いに協力し合える。

フレキシブルなデプロイで、
インテグレーションは容易
あなたの選んだインフラに、デプロイ。W&Bがマネジすることも、お客様がマネジすることもできます。既存の開発スタックとインテグレートさせられるので、ベンダーロックインは発生しません。

ML開発者とデプロイ担当者の橋渡し
一つのコラボレーションインターフェースで、ML開発をスケールし、自動化 - ML開発者は効率化、デプロイ担当者は視認性を獲得。

ガバナンスを保ちつつML開発をスケールアップ
開発の中核にあるMLプロジェクトの情報管理。モデルの開発サイクルを管理し、CI/CDによって開発を加速。モデルの変化を理解し、ビジネスインパクトを明確化。

実世界の課題解決でROIを実現
イノベーションを形にするスピードを加速し、ビジネスインパックとを生み出す。W&Bは何千もの実験を段階的に、協力して走らせることができるので、継続的にMLシステムの最適化を実現します。

どんなインダストリーの、どんなユースケースでも
幅広い業界のお客様が、さまざまなユースケースでW&Bをご利用されています。自動運転の開発から、新しい薬の発見新しい薬の発見、ご客支援の自動化から、生成AIまで、W&Bのフレキシブルなワークフローはあらゆる利用用途に対応します。

開発チームには
一番価値のある仕事を
MLのコアアクティビティに集中 - W&Bは煩雑なタスクを自動化します:再現可能性、監査可能性、インフラマネジメント、セキュリティーおよびガバナンス。
あなたのMLワークフローを未来に対応させましょう - W&BはOpenAIほか先端的イノベーターとともに製品開発を行い、最先端のAI開発の秘訣を製品に組み込んでいます。


700以上の企業や教育機関にいる50万人以上のML開発者に信頼されています
ケーススタディーを見る →Featured content
LLM whitepaper
