トレーニング > AI /機械学習 > Rust for Interfacing with Language Models (LFWS309)
インストラクター主導のコース

Rust for Interfacing with Language Models (LFWS309)

Rustで信頼性の高い本番環境レベルのLLMアプリケーションを構築する方法を学び、影響力の大きいAIエンジニアリングの分野で活躍しましょう。PAIMLスタックを使用して、type-safeクライアント、構造化出力、ストリーミング インターフェイス、RAGパイプライン、エージェントを設計します。これらは、AIシステムがプロトタイプから本番環境に移行する際にチームに必要なスキルです。

対象者

AIアプリケーションおよびプラットフォーム関連業務へのステップアップを目指すRust開発者、バックエンド エンジニア、プラットフォーム エンジニア向け。Rustの予測可能性とパフォーマンスを活用し、構造化出力、ストリーミング、RAGシステム、エージェントを備えた信頼性の高いLLMアプリケーションを開発するプロフェッショナルに最適です。
折りたたむ 続きを読む
学習内容

Rustで本番環境レベルのLLMシステムを構築・運用するためのスキルを習得します。type-safeインテグレーションの設計、構造化された出力とストリーミング レスポンスの管理、ツールのオーケストレーション、PAIMLスタックを使用したRAGパイプラインと自律エージェントの実装を学習します。
折りたたむ 続きを読む
身につく知識

AIアプリケーション エンジニアやLLMプラットフォームエンジニアといった高度な役割を担う人材を育成します。このコースでは、Rustで本番環境のLLMシステムを設計・運用し、高度なエージェント、次世代コパイロット、そして統合、ストリーミング、RAGパイプライン、ツール オーケストレーションを網羅する信頼性の高いAIワークフローをサポートする専門家を育成します。
折りたたむ 続きを読む
おもなテーマ
すべて展開
すべて折りたたむ
コースの紹介
Rust の LLM API クライアント
ラボ2.1. OpenAI、Anthropic、ローカルのllamafileを呼び出す統合クライアントを構築します。プロバイダー間の自動フェイルオーバーを実装します。
構造化出力解析
ラボ3.1. 非構造化テキストから構造化データを抽出します。Person { name, age, occupation } スキーマを定義します。不正な LLM 出力を適切に処理します。
ストリーミングレスポンス
ラボ4.1。ストリーミングCLIチャットを構築します。受信したトークンを表示します。接続の切断とタイムアウトを処理します。最初のトークンまでの時間を測定します。
マルチターン カンバセーション
ラボ 5.1。8K トークンウィンドウを備えた会話マネージャーを構築します。制限を超えた場合は自動的に要約します。セッションの保存と復元を行います。
ツールの使用と関数の呼び出し
ラボ6.1。ツール(calculator、web_search、file_read)を実装します。クエリに回答するためにツールを選択して連結するアシスタントを構築します。
Hugging Faceによる埋め込み
ラボ7.1。3つのHugging Face(HF)埋め込みモデルを意味的類似度タスクでベンチマーク評価します。スループット(処理速度)と品質(精度)のトレードオフを測定します。
RAGパイプラインとPacha
ラボ8.1。ドキュメントに基づいてRAGを構築します。インデックスを作成し、上位3つのチャンクを取得し、引用を含む根拠のある回答を生成します。
エージェントのビルド
ラボ9.1。調査エージェントをビルドします。質問を受け付け、検索戦略を立て、Web検索を実行し、回答をまとめます。ツール呼び出しは5回までです。
Capstone:CLI アシスタント
コース概要

前提条件
知識/スキルの前提条件:

このコースを最大限に活用するには、async/awaitパターン、シリアル化のためのserde、Resultとanyhowを使った実用的なエラー処理など、Rustの確かなスキルが必要です。また、エンドポイント、リクエスト/レスポンス形式、ステータスコードといったHTTP/REST APIの概念に加え、プロンプト、トークン、補完といった大規模な言語モデルの基礎知識も必要です。.

ラボ環境の前提条件:

  • Rust 1.75+、8GB RAM
  • API キー: OpenAI または Anthropic (またはローカル llamafile)