サイバーエージェントが開発した「DeepSeek R1」の日本語追加学習モデルの使い方!商用利用も可能! | AI-ワークスタイルlAIツールで仕事を効率化させるAIメディア
CONTACT US
内容に広告・プロモーションを含みます

サイバーエージェントが開発した「DeepSeek R1」の日本語追加学習モデルの使い方!商用利用も可能!

AIツール

サイバーエージェントが2025年1月27日に発表した新しい大規模言語モデル(LLM)「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」が、AI開発者の間で大きな注目を集めています。この記事では、このモデルの特徴、使用方法、そして他のモデルとの比較について詳しく解説します。

きょろ
きょろ

DeepSeek R1の大元のモデルの使い方は以下よりご覧ください。

DeepSeek R1とは?使い方、料金、ChatGPT o1と比較まで徹底解説

プロフィール画像
AI監修者兼ライター
きょろ
AIツール専門家
資格証アイコン 所有資格:Google AI Essentials
AIツールレビュー数100以上。AIワークスタイルのオウンドメディア立ち上げ~AI関連の記事執筆を通じて、「実際に使ってみて、本当に良いAIツールを届ける」という信念のもと、AIで日本が盛り上がることを夢見るアラサー

この記事はこんな人におすすめ

・サイバーエージェントの日本語対応させた「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」が気になる
・「DeepSeek」はo1より頭いいって本当?

サイバーエージェントの開発した「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」とは?

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」は、中国のスタートアップDeepSeekが開発したLLM「DeepSeek-R1」をベースに、サイバーエージェントが日本語能力を強化したモデルです。このモデルは、「DeepSeek-R1-Distill-Qwen-14B/32B」に日本語を追加学習させることで、日本語での高度な自然言語処理を可能にしました。

きょろ
きょろ

「DeepSeek-R1」でも日本語で回答してくれるのですが、基本的に中国語か英語が主になり、プロンプトを「think in English, output in Japanese:」とつけないと日本語で最後回答を返してくれませんでした。詳細は以下で確認できます。

モデルの特徴

  • 高性能: DeepSeek-R1は一部の分野で米OpenAIのLLM「o1」に匹敵する性能を持つとされています。
  • 日本語対応: 日本語の追加学習により、日本語での高度なタスク処理が可能です。
  • オープンソース: Hugging Face上で公開されており、誰でも利用可能です。
  • 複数のバージョン: 14Bと32Bの2つのバージョンが用意されています。

このモデルの登場により、日本語でのAI開発がより身近になり、多くの開発者や企業が高度な自然言語処理を活用できるようになることが期待されています。

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」は無料?

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」は、完全に無料で利用することができます。サイバーエージェントは、このモデルをHugging Face上で公開しており、誰でも自由にダウンロードして使用することが可能です。

きょろ
きょろ

無料でできるものの、環境構築は無料では難しいです。

無料提供の意義

  1. AI技術の民主化: 高性能なLLMを無料で提供することで、AI技術へのアクセスを広げています。
  2. 日本語AI開発の促進: 日本語に特化したモデルを無料で提供することで、日本国内でのAI開発を加速させる可能性があります。
  3. 研究と開発の促進: 無料で利用できることで、学術研究や新しいアプリケーションの開発が促進されます。

無料で提供されることで、個人開発者から大企業まで、幅広いユーザーがこのモデルを活用できるようになります。これにより、日本のAI技術の発展に大きく貢献することが期待されています。

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」は商用利用可能?

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」は、MITライセンスの下で公開されており、商用利用も可能です。これは、開発者や企業にとって非常に重要な特徴です。

MITライセンスの特徴

  1. 自由な使用: ソフトウェアを自由に使用、複製、変更、配布することができます。
  2. 商用利用の許可: 営利目的での使用が明示的に許可されています。
  3. 最小限の制限: 著作権表示とライセンス条項の保持以外に大きな制限がありません。

商用利用の可能性

  • 製品開発: 企業は「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」を自社製品に組み込むことができます。
  • サービス提供: このモデルを使用したAIサービスを開発し、提供することが可能です。
  • カスタマイズ: 企業のニーズに合わせてモデルをさらに調整し、独自のソリューションを作成できます。

商用利用が可能であることは、このモデルの価値を大きく高めています。企業は、高性能な日本語LLMを無料で利用し、自社のビジネスに活用することができます。これにより、日本のAI産業全体の成長が促進されることが期待されます。

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」の使い方

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」の使用方法は比較的シンプルですが、いくつかの手順を踏む必要があります。以下に、基本的な使用方法を説明します。

1. 環境準備

まず、Python環境とPyTorchがインストールされていることを確認してください。また、必要なライブラリをインストールします。Google Colaboで起動させた方が早い・かつ初心者に便利なので「Colaboratory」で解説します。

Colaboratory にアクセスしましたら「ノートブックを新規作成」を押下します。

・ノートブック上で以下のコードを入力し「Enter」を押下。

pip install transformers torch

2. モデルのダウンロード

Hugging Faceからモデルをダウンロードします。以下のコードを使用して、モデルとトークナイザーをロードします。

from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer

model = AutoModelForCausalLM.from_pretrained("cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese", device_map="auto", torch_dtype="auto")
tokenizer = AutoTokenizer.from_pretrained("cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese")
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)

messages = [
    {"role": "user", "content": "AIによって私たちの暮らしはどのように変わりますか?"}
]

input_ids = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)
output_ids = model.generate(input_ids,
                            max_new_tokens=4096,
                            temperature=0.7,
                            streamer=streamer)

・コードを追加を押下

・先述したコードを挿入して「Enter」を押下

普段からColaboを無料で使っている人は容量を食ってしまいますので、メモリを増量させる必要があります。

使用上の注意点

  • リソース要件: 特に32Bモデルは大量のメモリと計算能力を必要とします。適切なハードウェアを用意してください。
  • バッチ処理: 大量のテキスト処理を行う場合は、バッチ処理を検討してください。
  • エラー処理: 適切なエラー処理を実装し、モデルの出力を常にチェックしてください。

「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」の使用方法は、他のHugging Faceモデルと類似しています。しかし、このモデルの特性を最大限に活用するためには、日本語処理に特化した調整やプロンプトエンジニアリングが重要になるでしょう。

まとめ

サイバーエージェントが開発した「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」は、日本のAI開発シーンに大きな影響を与える可能性を秘めたモデルです。以下に、このモデルの主要なポイントをまとめます。

  1. 高性能な日本語LLM: DeepSeek-R1をベースに、日本語能力を大幅に強化したモデルです。
  2. 無料で利用可能: Hugging Face上で公開されており、誰でも無料でアクセスできます。
  3. 商用利用も可能: MITライセンスにより、商用利用を含む幅広い用途で使用できます。
  4. 複数のバージョン: 14Bと32Bの2つのバージョンが提供されており、用途に応じて選択できます。
  5. 使いやすさ: Hugging Faceのインターフェースを通じて、比較的簡単に実装できます。
  6. 日本語特化: 日本語の微妙なニュアンスや文化的文脈の理解に優れています。
  7. AI開発の加速: このモデルの登場により、日本国内でのAI開発が加
タイトルとURLをコピーしました