Hugging Faceの使い方!アクセストークン作成からログインまで

Huggingの使い方

この記事では、Hugging Faceアカウントの作り方やコマンドラインからのログイン方法を紹介しています。

Hugging Faceを使うことで、生成AIに必要なモデルやデータセット、Transformersライブラリを簡単に利用できるようになります。

11/27開催のウェビナーをお知らせ!

目次

Hugging Faceとは

見出し画像

Hugging Faceは生成AIの分野で人気のプラットフォームです。

Hugging Faceでは、次のようなことができます。

  • AIモデルの利用
  • データセットの利用
  • Transformerライブラリの利用

Hugging Faceのアカウント作成

見出し画像

Hugging Faceのアカウントを作成していきます。

STEP
Hugging Faceの公式ページからサインアップ

Hugging Faceの公式ページにアクセスし、「Sign Up」をクリックします。

サインアップ
(出典:https://huggingface.co/)

登録するメールアドレスとパスワードを入力して、「NEXT」をクリックします。

メールとパスワードの入力
(出典:https://huggingface.co/)
STEP
ユーザー情報の入力

「Username(ユーザー名)」と「Full name(氏名)」を入力します。

「Terms of Service(利用規約)、Code of Conduct(行動規範)」に同意した上で、「Create Account」をクリックします。

ユーザー情報の入力
(出典:https://huggingface.co/)
STEP
メール認証

登録したメールアドレスに認証メールが送られますので、URLをクリックして認証します。

メール認証
(出典:https://huggingface.co/)

Hugging Faceのアクセストークンの作成

見出し画像

コマンドラインからHugging Faceのモデルをダウンロードする際に、アクセストークンが必要になります。

ここではアクセストークンの作成方法を解説します。

STEP
Settingsを開く

Hugging Faceの公式サイトにログインし、右上の「丸いアイコン」をクリックし、メニューから「Settings」を選択します。

Settingsを開く
(出典:https://huggingface.co/)
STEP
Access Tokensを開く

サイドバーから「Access Tokens」を開き、「New token」ボタンをクリックします。

Access tokenを開く
(出典:https://huggingface.co/)
STEP
アクセストークンを作成

「Name」にアクセストークンの任意の名称を入力し、「Generate a token」を押すと、アクセストークンが作られます。

アクセストークンを作成
(出典:https://huggingface.co/)

「Copy」ボタンを押すと、アクセストークンをコピーできます。

アクセストークンをコピー
(出典:https://huggingface.co/)

アクセストークンは、コピーして大切に保管してください。

コマンドラインからHugging Faceにログインする

見出し画像

モデルをダウンロードする際に、コマンドラインからHugging Faceにログインする必要があります。

ここではコマンドラインでのログイン方法を紹介します。

お使いの環境で次のコマンドを実行して、HuggingFace HubのCLIをインストールします。

pip install -U "huggingface_hub[cli]"

Pythonを起動します。

python

HuggingFace Hubからlogin関数をインポートします。

from huggingface_hub import login

login関数を実行し、Hugging Faceへアクセスします。

login()
Hugging Faceにログイン

「Enter your token」アクセストークンの入力を求められますので、コピーしておいたアクセストークンを入力します。

「Login successful」が表示されたら、ログイン完了です。

生成AI・LLMのコストでお困りなら

GPUのスペック不足で生成AIの開発が思うように進まないことはありませんか?

そんなときには、高性能なGPUをリーズナブルな価格で使えるGPUクラウドサービスがおすすめです!

GPUSOROBAN
GPUSOROBAN

GPUSOROBANは、高性能GPU「NVIDIA H200」を業界最安級の料金で使用することができます。

NVIDIA H200は、生成AI・LLMの計算にかかる時間を大幅に短縮することが可能です。

クラウドで使えるため、大規模な設備投資の必要がなく、煩雑なサーバー管理からも解放されます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    11/27ウェビナー

    RAG×日本語LLMの無料オンラインウェビナー第2弾!

    開催日時:
    2024年11月27日(水) 14:00~15:00

    内容:

    • 「LlamaIndex」と「Llama-3.1-Swallow」でRAG環境を構築
    • 生成AI開発の強い味方「GPUSOROBAN」の活用方法

    このウェビナーでは、オープンソース「LlamaIndex」で構築したRAGの使い方や、デモを紹介します。

    生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • 日本語LLMの利用を検討している方
    • AI開発に携わっている方
    • 最新のAI技術やトレンドに興味がある方
    • GPUスペック不足に悩んでいる方

    \簡単1分で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次