nlp-engineer
自然言語処理の専門家として、テキスト分類や翻訳、LLM連携システムを構築し、テキスト分析やAI機能開発を支援するSkill。
📜 元の英語説明(参考)
Expert in Natural Language Processing, designing systems for text classification, NER, translation, and LLM integration using Hugging Face, spaCy, and LangChain. Use when building NLP pipelines, text analysis, or LLM-powered features. Triggers include "NLP", "text classification", "NER", "named entity", "sentiment analysis", "spaCy", "Hugging Face", "transformers".
🇯🇵 日本人クリエイター向け解説
自然言語処理の専門家として、テキスト分類や翻訳、LLM連携システムを構築し、テキスト分析やAI機能開発を支援するSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
下記のコマンドをコピーしてターミナル(Mac/Linux)または PowerShell(Windows)に貼り付けてください。 ダウンロード → 解凍 → 配置まで全自動。
mkdir -p ~/.claude/skills && cd ~/.claude/skills && curl -L -o nlp-engineer.zip https://jpskill.com/download/6702.zip && unzip -o nlp-engineer.zip && rm nlp-engineer.zip
$d = "$env:USERPROFILE\.claude\skills"; ni -Force -ItemType Directory $d | Out-Null; iwr https://jpskill.com/download/6702.zip -OutFile "$d\nlp-engineer.zip"; Expand-Archive "$d\nlp-engineer.zip" -DestinationPath $d -Force; ri "$d\nlp-engineer.zip"
完了後、Claude Code を再起動 → 普通に「動画プロンプト作って」のように話しかけるだけで自動発動します。
💾 手動でダウンロードしたい(コマンドが難しい人向け)
- 1. 下の青いボタンを押して
nlp-engineer.zipをダウンロード - 2. ZIPファイルをダブルクリックで解凍 →
nlp-engineerフォルダができる - 3. そのフォルダを
C:\Users\あなたの名前\.claude\skills\(Win)または~/.claude/skills/(Mac)へ移動 - 4. Claude Code を再起動
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Skill本文(日本語訳)
※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。
NLPエンジニア
目的
自然言語処理システムの設計と実装に関する専門知識を提供します。テキスト分類、固有表現認識、感情分析、およびHugging Face、spaCy、LangChainなどのフレームワークを使用した最新のLLMの統合を専門としています。
使用する場面
- テキスト分類システムを構築する際
- 固有表現認識(NER)を実装する際
- 感情分析パイプラインを作成する際
- トランスフォーマーモデルをファインチューニングする際
- LLMを活用した機能を設計する際
- テキスト前処理パイプラインを実装する際
- 検索および情報検索システムを構築する際
- テキスト生成アプリケーションを作成する際
クイックスタート
このスキルを呼び出すのは、以下の状況です。
- NLPパイプライン(分類、NER、感情分析)を構築する際
- トランスフォーマーモデルをファインチューニングする際
- テキスト前処理を実装する際
- テキストタスクのためにLLMを統合する際
- セマンティック検索システムを設計する際
以下の場合は呼び出さないでください。
- RAGアーキテクチャ設計 →
/ai-engineerを使用してください - LLMプロンプト最適化 →
/prompt-engineerを使用してください - MLモデルデプロイ →
/mlops-engineerを使用してください - 一般的なデータ処理 →
/data-engineerを使用してください
意思決定フレームワーク
NLP Task Type?
├── Classification
│ ├── Simple → Fine-tuned BERT/DistilBERT
│ └── Zero-shot → LLM with prompting
├── NER
│ ├── Standard entities → spaCy
│ └── Custom entities → Fine-tuned model
├── Generation
│ └── LLM (GPT, Claude, Llama)
└── Semantic Search
└── Embeddings + Vector store
コアワークフロー
1. テキスト分類パイプライン
- 訓練データを収集し、ラベル付けします
- テキストを前処理します(トークン化、クリーニング)
- ベースモデルを選択します(BERT、RoBERTa)
- ラベル付けされたデータセットでファインチューニングします
- 適切な指標で評価します
- 推論最適化を施してデプロイします
2. NERシステム
- ドメインのエンティティタイプを定義します
- ラベル付けされた訓練データを作成します
- フレームワークを選択します(spaCy、Hugging Face)
- カスタムNERモデルを訓練します
- 精度、再現率、F1スコアを評価します
- 後処理ルールと統合します
3. 埋め込みベースの検索
- 埋め込みモデルを選択します(sentence-transformers)
- コーパスの埋め込みを生成します
- ベクトルデータベースにインデックスを作成します
- クエリ埋め込みを実装します
- ハイブリッド検索(キーワード + セマンティック)を追加します
- 類似度閾値を調整します
ベストプラクティス
- 事前学習済みモデルから始め、必要に応じてファインチューニングします
- ドメイン固有の前処理を使用します
- タスクに適した指標で評価します
- 本番環境での推論レイテンシを考慮します
- 適切なテキストクリーニングパイプラインを実装します
- 効率的な推論のためにバッチ処理を使用します
アンチパターン
| アンチパターン | 問題 | 正しいアプローチ |
|---|---|---|
| スクラッチからの訓練 | データと計算資源の無駄 | 事前学習済みモデルをファインチューニングする |
| 前処理なし | ノイズの多い入力がパフォーマンスを低下させる | テキストをクリーニングし、正規化する |
| 間違った指標 | 誤解を招く評価 | タスクに適した指標を使用する |
| クラス不均衡の無視 | 偏った予測 | クラスのバランスを取るか、重み付けする |
| 評価セットへの過学習 | 汎化性能の低下 | 適切な訓練/検証/テスト分割を行う |
📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開
NLP Engineer
Purpose
Provides expertise in Natural Language Processing systems design and implementation. Specializes in text classification, named entity recognition, sentiment analysis, and integrating modern LLMs using frameworks like Hugging Face, spaCy, and LangChain.
When to Use
- Building text classification systems
- Implementing named entity recognition (NER)
- Creating sentiment analysis pipelines
- Fine-tuning transformer models
- Designing LLM-powered features
- Implementing text preprocessing pipelines
- Building search and retrieval systems
- Creating text generation applications
Quick Start
Invoke this skill when:
- Building NLP pipelines (classification, NER, sentiment)
- Fine-tuning transformer models
- Implementing text preprocessing
- Integrating LLMs for text tasks
- Designing semantic search systems
Do NOT invoke when:
- RAG architecture design → use
/ai-engineer - LLM prompt optimization → use
/prompt-engineer - ML model deployment → use
/mlops-engineer - General data processing → use
/data-engineer
Decision Framework
NLP Task Type?
├── Classification
│ ├── Simple → Fine-tuned BERT/DistilBERT
│ └── Zero-shot → LLM with prompting
├── NER
│ ├── Standard entities → spaCy
│ └── Custom entities → Fine-tuned model
├── Generation
│ └── LLM (GPT, Claude, Llama)
└── Semantic Search
└── Embeddings + Vector store
Core Workflows
1. Text Classification Pipeline
- Collect and label training data
- Preprocess text (tokenization, cleaning)
- Select base model (BERT, RoBERTa)
- Fine-tune on labeled dataset
- Evaluate with appropriate metrics
- Deploy with inference optimization
2. NER System
- Define entity types for domain
- Create labeled training data
- Choose framework (spaCy, Hugging Face)
- Train custom NER model
- Evaluate precision, recall, F1
- Integrate with post-processing rules
3. Embedding-Based Search
- Select embedding model (sentence-transformers)
- Generate embeddings for corpus
- Index in vector database
- Implement query embedding
- Add hybrid search (keyword + semantic)
- Tune similarity thresholds
Best Practices
- Start with pretrained models, fine-tune as needed
- Use domain-specific preprocessing
- Evaluate with task-appropriate metrics
- Consider inference latency for production
- Implement proper text cleaning pipelines
- Use batching for efficient inference
Anti-Patterns
| Anti-Pattern | Problem | Correct Approach |
|---|---|---|
| Training from scratch | Wastes data and compute | Fine-tune pretrained |
| No preprocessing | Noisy inputs hurt performance | Clean and normalize text |
| Wrong metrics | Misleading evaluation | Task-appropriate metrics |
| Ignoring class imbalance | Biased predictions | Balance or weight classes |
| Overfitting to eval set | Poor generalization | Proper train/val/test splits |