实验一:AI Toolkit基础掌握 🛠️
"工具决定效率,掌握工具就是掌握未来!" - 让我们从零开始,一步步成为AI Toolkit的专家
欢迎来到MCP学习的实战阶段!这个实验将带你深入探索Microsoft AI Toolkit的强大功能。就像学习驾驶一样,我们不仅要知道方向盘和油门在哪里,更要学会如何安全、高效地"驾驶"这个AI开发利器。
🎯 实验目标
🧠 知识目标
- 全面掌握AI Toolkit界面:熟悉每个功能模块的位置和作用
- 理解模型生态系统:掌握不同平台模型的特点和选择标准
- 掌握代理开发流程:从创建到部署的完整生命周期
- 学会性能评估:使用内置指标科学评估模型表现
🔧 技能目标
- ✅ 独立安装和配置AI Toolkit
- ✅ 熟练使用模型目录浏览和筛选功能
- ✅ 创建第一个功能完整的AI代理
- ✅ 进行模型性能测试和比较
- ✅ 掌握批处理和多模态功能
⏱️ 时间分配
- 安装配置:5分钟
- 界面探索:8分钟
- 模型实验:7分钟
- 代理构建:5分钟
🚀 第一步:安装与配置
🔍 系统要求检查
在开始之前,让我们确保你的系统满足所有要求:
bash
# 检查VS Code版本(需要1.80+)
code --version
# 检查Node.js版本(需要18+)
node --version
# 检查Python版本(需要3.8+)
python --version
# 检查系统内存(推荐16GB+)
# Windows PowerShell:
Get-WmiObject -Class Win32_ComputerSystem | Select-Object TotalPhysicalMemory
# macOS/Linux:
free -h
📦 AI Toolkit安装指南
方法一:VS Code扩展市场安装(推荐)
- 打开VS Code
- 按
Ctrl+Shift+X
(Windows/Linux) 或Cmd+Shift+X
(macOS) 打开扩展面板 - 搜索
AI Toolkit
- 点击
Microsoft
发布的AI Toolkit
扩展 - 点击
Install
按钮
方法二:命令行安装
bash
# 使用VS Code命令行工具安装
code --install-extension ms-windows-ai-studio.windows-ai-studio
✅ 安装验证清单
安装完成后,验证以下项目:
javascript
// 验证清单
const verificationChecklist = {
aiToolkitIcon: "侧边栏是否出现AI Toolkit图标 🤖",
welcomeScreen: "点击图标是否显示欢迎界面",
modelCatalog: "模型目录是否正常加载",
playgroundAccess: "游乐场功能是否可访问",
agentBuilder: "代理构建器是否可用"
};
// 如果以上项目都通过,恭喜你安装成功!
console.log("🎉 AI Toolkit安装成功!");
🌟 第二步:界面全貌探索
🗺️ 主界面导航图
AI Toolkit的界面设计非常直观,让我们一起探索每个区域:
┌─────────────────────────────────────────────────┐
│ AI Toolkit 主界面 │
├─────────────────┬───────────────────────────────┤
│ 📦 模型目录 │ 🎮 交互式游乐场 │
│ - Azure AI │ - 实时对话测试 │
│ - GitHub │ - 参数调优 │
│ - Hugging Face│ - 响应分析 │
│ - ONNX │ │
├─────────────────┼───────────────────────────────┤
│ 🤖 代理构建器 │ 📊 性能评估 │
│ - 拖拽界面 │ - F1分数 │
│ - 工具配置 │ - 相关性评分 │
│ - 对话流程 │ - 连贯性分析 │
└─────────────────┴───────────────────────────────┘
🔍 模型目录深度探索
模型目录是AI Toolkit的"图书馆",包含数百个预训练模型:
python
# 模型分类示例
model_categories = {
"text_generation": {
"gpt-4o-mini": {
"provider": "Azure AI",
"size": "轻量级",
"use_case": "聊天机器人,内容生成",
"context_length": "128K tokens",
"features": ["多模态", "function_calling"]
},
"llama-3.1-8b": {
"provider": "Meta via GitHub",
"size": "中等",
"use_case": "代码生成,对话",
"context_length": "8K tokens",
"features": ["开源", "本地部署"]
}
},
"vision_models": {
"gpt-4-vision": {
"provider": "Azure AI",
"capabilities": ["图像理解", "OCR", "视觉问答"],
"supported_formats": ["PNG", "JPEG", "GIF"]
}
},
"embedding_models": {
"text-embedding-3-large": {
"provider": "Azure AI",
"dimensions": 3072,
"use_case": "语义搜索,RAG系统"
}
}
}
🎮 交互式游乐场使用指南
游乐场是测试模型的绝佳场所,让我们创建第一个测试会话:
javascript
// 游乐场测试配置示例
const playgroundConfig = {
model: "gpt-4o-mini",
temperature: 0.7,
max_tokens: 1000,
system_prompt: `你是一个专业的AI助手,擅长解释复杂的技术概念。
请用简洁、准确且友好的语言回答用户问题。`,
test_scenarios: [
{
name: "技术解释测试",
prompt: "请用简单的话解释什么是MCP协议",
expected_elements: ["协议定义", "使用场景", "核心价值"]
},
{
name: "代码生成测试",
prompt: "写一个Python函数来计算斐波那契数列",
expected_elements: ["函数定义", "递归或循环", "注释"]
},
{
name: "创意思维测试",
prompt: "设计一个智能家居系统的功能特性",
expected_elements: ["创新性", "实用性", "技术可行性"]
}
]
};
🔬 实际操作步骤:
- 选择模型:从下拉菜单选择
gpt-4o-mini
- 设置参数:
- Temperature:
0.7
(平衡创造性和准确性) - Max tokens:
1000
- Top P:
0.9
- Temperature:
- 输入系统提示:复制上面的system_prompt
- 测试对话:依次尝试test_scenarios中的提示
- 分析响应:观察模型的回答质量和风格
🤖 第三步:创建你的第一个AI代理
🏗️ 代理架构设计
在创建代理之前,让我们先设计它的架构:
🛠️ 代理构建实战
让我们创建一个名为"智能开发助手"的AI代理:
typescript
// intelligent-dev-assistant.config.ts
export interface DevAssistantConfig {
name: string;
description: string;
model: {
provider: string;
name: string;
parameters: ModelParameters;
};
tools: Tool[];
personality: PersonalityConfig;
knowledgeBase: string[];
}
interface ModelParameters {
temperature: number;
maxTokens: number;
topP: number;
frequencyPenalty: number;
presencePenalty: number;
}
interface Tool {
name: string;
description: string;
endpoint?: string;
parameters: Record<string, any>;
}
interface PersonalityConfig {
tone: string;
expertise: string[];
responseStyle: string;
examples: string[];
}
// 具体配置
export const devAssistantConfig: DevAssistantConfig = {
name: "智能开发助手",
description: "专业的软件开发AI助手,精通多种编程语言和框架",
model: {
provider: "Azure AI",
name: "gpt-4o-mini",
parameters: {
temperature: 0.3, // 较低温度保证准确性
maxTokens: 2000, // 支持长代码片段
topP: 0.95, // 平衡多样性
frequencyPenalty: 0.1, // 减少重复
presencePenalty: 0.1 // 鼓励新话题
}
},
tools: [
{
name: "code_analyzer",
description: "分析代码质量、性能和最佳实践",
parameters: {
supported_languages: ["python", "javascript", "typescript", "java", "csharp"],
analysis_types: ["quality", "performance", "security", "maintainability"]
}
},
{
name: "documentation_generator",
description: "为代码生成专业文档",
parameters: {
doc_formats: ["markdown", "sphinx", "jsdoc", "xmldoc"],
include_examples: true
}
},
{
name: "test_generator",
description: "生成单元测试和集成测试",
parameters: {
test_frameworks: ["pytest", "jest", "junit", "nunit"],
coverage_target: 90
}
},
{
name: "architecture_advisor",
description: "提供架构设计建议和最佳实践",
parameters: {
patterns: ["MVC", "MVP", "MVVM", "Clean Architecture", "Microservices"],
technologies: ["web", "mobile", "cloud", "desktop"]
}
}
],
personality: {
tone: "professional_friendly",
expertise: [
"全栈开发", "DevOps", "云架构", "AI/ML集成",
"性能优化", "安全最佳实践", "代码审查"
],
responseStyle: "详细解释 + 实际示例 + 最佳实践建议",
examples: [
"提供完整的代码示例和详细注释",
"解释技术决策背后的原因",
"分享相关的最佳实践和常见陷阱",
"推荐进一步学习资源"
]
},
knowledgeBase: [
"最新的编程语言特性和框架更新",
"软件架构模式和设计原则",
"云服务最佳实践(Azure, AWS, GCP)",
"AI/ML集成模式和工具",
"安全开发生命周期(SDLC)",
"性能优化技术和工具"
]
};
📝 代理创建步骤详解
Step 1: 基础信息配置
在AI Toolkit代理构建器中:
- 点击 "创建新代理"
- 填写基础信息:
名称: 智能开发助手 描述: 专业的软件开发AI助手,精通多种编程语言和框架 版本: 1.0.0
Step 2: 模型选择与参数调优
javascript
// 模型配置最佳实践
const modelOptimization = {
// 对于代码生成任务
code_generation: {
temperature: 0.2, // 低温度确保代码准确性
topP: 0.9, // 适度的多样性
maxTokens: 2000 // 支持完整代码片段
},
// 对于架构建议任务
architecture_advice: {
temperature: 0.4, // 略高温度鼓励创新思维
topP: 0.95, // 更多的选择多样性
maxTokens: 1500 // 详细的解释空间
},
// 对于代码审查任务
code_review: {
temperature: 0.1, // 最低温度确保客观性
topP: 0.8, // 聚焦重要建议
maxTokens: 1000 // 简洁的审查意见
}
};
Step 3: 系统提示词优化
markdown
# 智能开发助手系统提示词
你是一位资深的软件工程专家,拥有15年以上的全栈开发经验。你的专长包括:
## 🎯 核心能力
- **代码质量分析**:识别潜在问题,提供改进建议
- **架构设计指导**:推荐合适的设计模式和架构方案
- **性能优化**:诊断性能瓶颈,提供优化策略
- **安全审查**:识别安全漏洞,推荐修复方案
- **测试策略**:设计全面的测试方案
## 💬 交流风格
- **专业而友好**:使用技术术语但确保易于理解
- **结构化回答**:使用标题、列表和代码块组织信息
- **实用导向**:提供可执行的建议和具体步骤
- **教育意义**:解释背后的原理和最佳实践
## 📋 响应模板
对于每个技术问题,请按以下结构回答:
1. **问题分析**:简要分析用户的需求和背景
2. **解决方案**:提供详细的技术方案
3. **代码示例**:包含完整、可运行的代码
4. **最佳实践**:相关的行业最佳实践
5. **进阶建议**:进一步改进和学习资源
记住:始终以用户的成功为目标,提供高质量、实用的技术指导!
🔧 工具集成配置
为我们的开发助手配置专业工具:
yaml
# tools-configuration.yml
tools:
- name: "code_quality_analyzer"
type: "built-in"
config:
rules:
- complexity_threshold: 10
- line_length_limit: 100
- naming_convention: "snake_case"
languages: ["python", "javascript", "typescript"]
- name: "security_scanner"
type: "external"
endpoint: "https://api.security-scanner.com/v1/scan"
config:
scan_types: ["vulnerability", "dependency", "secrets"]
severity_threshold: "medium"
- name: "performance_profiler"
type: "built-in"
config:
metrics: ["execution_time", "memory_usage", "cpu_usage"]
benchmark_against: "industry_standard"
- name: "documentation_generator"
type: "built-in"
config:
formats: ["markdown", "html", "pdf"]
include_diagrams: true
auto_generate_examples: true
📊 第四步:性能评估与优化
🎯 评估指标体系
AI Toolkit提供了多种评估指标,让我们了解如何正确使用它们:
python
# 评估指标详解
evaluation_metrics = {
"relevance_score": {
"description": "回答与问题的相关性",
"range": "0.0 - 1.0",
"target": "> 0.8",
"optimization_tips": [
"优化系统提示词的专业性",
"增加相关领域的训练数据",
"调整temperature参数降低随机性"
]
},
"coherence_score": {
"description": "回答的逻辑连贯性",
"range": "0.0 - 1.0",
"target": "> 0.85",
"optimization_tips": [
"使用结构化的回答模板",
"增加上下文记忆长度",
"优化对话流程设计"
]
},
"accuracy_score": {
"description": "技术内容的准确性",
"range": "0.0 - 1.0",
"target": "> 0.9",
"optimization_tips": [
"使用更可靠的知识库",
"增加事实验证步骤",
"降低temperature提高确定性"
]
},
"completeness_score": {
"description": "回答的完整性",
"range": "0.0 - 1.0",
"target": "> 0.8",
"optimization_tips": [
"增加maxTokens限制",
"优化提示词引导完整回答",
"使用多轮对话补充信息"
]
}
}
🧪 综合测试套件
让我们创建一个全面的测试套件来评估我们的智能开发助手:
python
# comprehensive_test_suite.py
import asyncio
import json
from typing import List, Dict, Any
from datetime import datetime
class DevAssistantTestSuite:
def __init__(self, agent_endpoint: str):
self.agent_endpoint = agent_endpoint
self.test_cases = self.load_test_cases()
self.results = []
def load_test_cases(self) -> List[Dict[str, Any]]:
"""加载综合测试用例"""
return [
{
"category": "代码生成",
"difficulty": "初级",
"prompt": "写一个Python函数来实现二分查找算法",
"expected_elements": [
"函数定义",
"参数验证",
"二分查找逻辑",
"边界条件处理",
"返回值说明",
"示例用法",
"时间复杂度分析"
],
"evaluation_criteria": {
"correctness": 0.3,
"completeness": 0.2,
"clarity": 0.2,
"best_practices": 0.3
}
},
{
"category": "架构设计",
"difficulty": "中级",
"prompt": "设计一个可扩展的电商系统架构,支持高并发和微服务",
"expected_elements": [
"系统分层设计",
"微服务拆分策略",
"数据库设计",
"缓存策略",
"负载均衡方案",
"监控和日志",
"部署架构"
],
"evaluation_criteria": {
"architectural_soundness": 0.4,
"scalability_considerations": 0.3,
"practical_feasibility": 0.3
}
},
{
"category": "性能优化",
"difficulty": "高级",
"prompt": "这段Python代码运行很慢,请分析性能瓶颈并提供优化方案",
"code_sample": """
def slow_function(data_list):
result = []
for i in range(len(data_list)):
for j in range(len(data_list)):
if i != j:
if data_list[i] + data_list[j] == 100:
result.append((data_list[i], data_list[j]))
return result
""",
"expected_elements": [
"性能问题识别",
"时间复杂度分析",
"优化算法建议",
"改进代码实现",
"性能测试建议",
"内存使用优化"
],
"evaluation_criteria": {
"problem_identification": 0.25,
"solution_effectiveness": 0.35,
"code_quality": 0.25,
"explanation_clarity": 0.15
}
},
{
"category": "调试与问题解决",
"difficulty": "中级",
"prompt": "这个JavaScript函数有bug,请找出问题并修复",
"code_sample": """
function calculateDiscount(price, discountPercent) {
if (discountPercent > 100) {
return "Invalid discount";
}
var discountAmount = price * discountPercent / 100;
var finalPrice = price - discountAmount;
return finalPrice;
}
""",
"expected_elements": [
"bug识别",
"修复方案",
"测试用例",
"边界条件考虑",
"代码改进建议"
],
"evaluation_criteria": {
"bug_detection": 0.4,
"fix_correctness": 0.3,
"improvement_suggestions": 0.3
}
}
]
async def run_comprehensive_evaluation(self):
"""运行综合评估"""
print("🚀 开始综合性能评估...")
for i, test_case in enumerate(self.test_cases, 1):
print(f"\n📝 测试用例 {i}/{len(self.test_cases)}: {test_case['category']}")
# 发送请求到AI代理
response = await self.query_agent(test_case)
# 评估响应质量
evaluation = await self.evaluate_response(test_case, response)
# 记录结果
result = {
"test_case": test_case,
"response": response,
"evaluation": evaluation,
"timestamp": datetime.now().isoformat()
}
self.results.append(result)
# 显示即时结果
self.display_test_result(i, test_case, evaluation)
# 生成最终报告
final_report = self.generate_final_report()
return final_report
async def query_agent(self, test_case: Dict[str, Any]) -> str:
"""查询AI代理"""
# 构建完整的提示
full_prompt = test_case["prompt"]
if "code_sample" in test_case:
full_prompt += f"\n\n```\n{test_case['code_sample']}\n```"
# 这里应该调用实际的AI代理API
# 为了演示,我们返回模拟响应
return f"[模拟响应] 针对{test_case['category']}问题的详细解答..."
async def evaluate_response(self, test_case: Dict[str, Any], response: str) -> Dict[str, Any]:
"""评估响应质量"""
evaluation = {}
# 检查期望元素是否包含
elements_found = 0
for element in test_case["expected_elements"]:
# 简化的关键词匹配(实际应用中应使用更复杂的NLP技术)
if any(keyword in response.lower() for keyword in element.lower().split()):
elements_found += 1
completeness_score = elements_found / len(test_case["expected_elements"])
# 基于评估标准计算分数
criteria = test_case["evaluation_criteria"]
weighted_score = 0
for criterion, weight in criteria.items():
# 这里应该有更复杂的评估逻辑
criterion_score = min(completeness_score * 1.2, 1.0) # 简化计算
weighted_score += criterion_score * weight
evaluation[criterion] = {
"score": criterion_score,
"weight": weight,
"contribution": criterion_score * weight
}
evaluation["overall_score"] = weighted_score
evaluation["completeness_score"] = completeness_score
evaluation["elements_found"] = elements_found
evaluation["total_elements"] = len(test_case["expected_elements"])
return evaluation
def display_test_result(self, test_num: int, test_case: Dict[str, Any], evaluation: Dict[str, Any]):
"""显示测试结果"""
score = evaluation["overall_score"]
completeness = evaluation["completeness_score"]
# 分数等级
if score >= 0.9:
grade = "🎉 优秀"
color = "green"
elif score >= 0.8:
grade = "👍 良好"
color = "blue"
elif score >= 0.7:
grade = "⚠️ 及格"
color = "yellow"
else:
grade = "❌ 需改进"
color = "red"
print(f"""
✅ 测试完成 - {test_case['category']} ({test_case['difficulty']})
📊 综合评分: {score:.2f}/1.0 {grade}
📈 完整性: {completeness:.2f} ({evaluation['elements_found']}/{evaluation['total_elements']} 要素)
""")
def generate_final_report(self) -> Dict[str, Any]:
"""生成最终评估报告"""
if not self.results:
return {"error": "没有测试结果"}
# 计算总体统计
total_score = sum(result["evaluation"]["overall_score"] for result in self.results)
average_score = total_score / len(self.results)
# 按类别分组
category_stats = {}
for result in self.results:
category = result["test_case"]["category"]
if category not in category_stats:
category_stats[category] = []
category_stats[category].append(result["evaluation"]["overall_score"])
# 计算每个类别的平均分
category_averages = {
category: sum(scores) / len(scores)
for category, scores in category_stats.items()
}
# 找出优势和劣势
strengths = [cat for cat, score in category_averages.items() if score >= 0.8]
weaknesses = [cat for cat, score in category_averages.items() if score < 0.7]
report = {
"summary": {
"total_tests": len(self.results),
"average_score": average_score,
"grade": self.get_overall_grade(average_score),
"test_date": datetime.now().isoformat()
},
"category_performance": category_averages,
"strengths": strengths,
"weaknesses": weaknesses,
"recommendations": self.generate_recommendations(category_averages),
"detailed_results": self.results
}
return report
def get_overall_grade(self, score: float) -> str:
"""获取总体等级"""
if score >= 0.9:
return "🎉 专家级 (Expert)"
elif score >= 0.8:
return "🌟 熟练级 (Proficient)"
elif score >= 0.7:
return "👍 胜任级 (Competent)"
elif score >= 0.6:
return "⚠️ 发展级 (Developing)"
else:
return "📚 新手级 (Novice)"
def generate_recommendations(self, category_averages: Dict[str, float]) -> List[str]:
"""生成改进建议"""
recommendations = []
for category, score in category_averages.items():
if score < 0.7:
if category == "代码生成":
recommendations.append("💡 加强代码生成训练:多练习算法和数据结构题目")
elif category == "架构设计":
recommendations.append("🏗️ 深入学习系统设计:研究大型系统架构案例")
elif category == "性能优化":
recommendations.append("⚡ 提升性能分析技能:学习性能分析工具和方法")
elif category == "调试与问题解决":
recommendations.append("🔍 加强调试技能:多练习bug发现和修复")
if not recommendations:
recommendations.append("🎊 表现优秀!继续保持并探索更高级的技术挑战")
return recommendations
# 使用示例
async def run_agent_evaluation():
"""运行代理评估"""
test_suite = DevAssistantTestSuite("http://localhost:8000/agent")
print("🔬 智能开发助手 - 综合性能评估")
print("=" * 50)
# 运行评估
report = await test_suite.run_comprehensive_evaluation()
# 显示最终报告
print("\n" + "=" * 50)
print("📊 最终评估报告")
print("=" * 50)
summary = report["summary"]
print(f"""
🎯 总体表现: {summary['grade']}
📈 平均得分: {summary['average_score']:.2f}/1.0
🧪 测试用例: {summary['total_tests']} 个
📅 测试时间: {summary['test_date'][:19]}
📊 分类表现:""")
for category, score in report["category_performance"].items():
print(f" {category}: {score:.2f}/1.0")
if report["strengths"]:
print(f"\n💪 优势领域: {', '.join(report['strengths'])}")
if report["weaknesses"]:
print(f"\n📈 改进空间: {', '.join(report['weaknesses'])}")
print(f"\n💡 改进建议:")
for recommendation in report["recommendations"]:
print(f" {recommendation}")
# 运行评估
if __name__ == "__main__":
asyncio.run(run_agent_evaluation())
🎉 实验成果展示
🏆 成功标准检查
完成本实验后,你应该能够:
✅ 基础技能验证
- [ ] 成功安装并配置AI Toolkit
- [ ] 熟练浏览和筛选模型目录
- [ ] 在游乐场中测试至少3个不同模型
- [ ] 理解不同参数对模型行为的影响
🚀 进阶能力确认
- [ ] 创建功能完整的AI代理
- [ ] 配置专业的系统提示词
- [ ] 集成至少2个有用的工具
- [ ] 进行系统性的性能评估
🎓 专家级成就
- [ ] 优化代理性能达到预期指标
- [ ] 理解各种评估指标的含义和优化方法
- [ ] 能够独立解决配置问题
- [ ] 具备代理调优的实践经验
📊 性能基准参考
根据我们的测试经验,优秀的AI代理应该达到以下基准:
python
# 性能基准表
performance_benchmarks = {
"beginner_level": {
"relevance_score": 0.7,
"coherence_score": 0.75,
"accuracy_score": 0.8,
"completeness_score": 0.65,
"overall_rating": "合格开发助手"
},
"intermediate_level": {
"relevance_score": 0.8,
"coherence_score": 0.85,
"accuracy_score": 0.9,
"completeness_score": 0.8,
"overall_rating": "优秀开发助手"
},
"expert_level": {
"relevance_score": 0.9,
"coherence_score": 0.95,
"accuracy_score": 0.95,
"completeness_score": 0.9,
"overall_rating": "专家级开发助手"
}
}
🔧 常见问题与解决方案
❓ 问题1:模型响应速度太慢
可能原因:
- 选择了过大的模型
- maxTokens设置过高
- 网络连接问题
解决方案:
javascript
// 优化配置
const optimizedConfig = {
model: "gpt-4o-mini", // 使用轻量级模型
maxTokens: 1000, // 限制响应长度
temperature: 0.7, // 平衡质量和速度
streaming: true // 启用流式输出
};
❓ 问题2:代理回答不够准确
可能原因:
- 系统提示词不够具体
- 缺乏领域专业知识
- temperature设置过高
解决方案:
markdown
# 改进系统提示词
你是一位拥有10年经验的{具体领域}专家。
在回答问题时,请:
1. 首先确认理解问题的核心
2. 提供准确的技术解释
3. 包含具体的代码示例
4. 指出常见的陷阱和最佳实践
5. 如果不确定,明确说明不确定性
❓ 问题3:无法访问某些模型
可能原因:
- 需要API密钥配置
- 地区限制
- 权限不足
解决方案:
- 检查模型提供商的要求
- 配置必需的认证信息
- 选择可用的替代模型
🎯 下一步学习计划
完成了AI Toolkit基础掌握后,你已经为后续的高级实验打下了坚实基础。接下来推荐:
- 立即开始 🚀:实验二:MCP与AI Toolkit深度融合
- 深入研究 📚:探索更多模型和工具组合
- 实践项目 💼:为自己的工作场景定制AI代理
- 社区参与 🌐:分享你的代理配置和经验
记住:最好的学习方式就是实践! 不要害怕实验和犯错,每一次调优都是成长的机会。
🎊 恭喜你成功掌握了AI Toolkit的核心功能!现在你已经有了构建智能应用的强大工具箱。让我们继续探索更高级的MCP集成技术吧!