Claude Code Plugins

Community-maintained marketplace

Feedback

python_sandbox

@CK991357/gemini-chat
0
0

在沙盒环境中执行Python代码,用于数据分析、可视化和生成Excel、Word、PDF等文件。支持数据清洗、统计分析、机器学习、图表生成、文档自动化等复杂工作流。

Install Skill

1Download skill
2Enable skills in Claude

Open claude.ai/settings/capabilities and find the "Skills" section

3Upload to Claude

Click "Upload skill" and select the downloaded ZIP file

Note: Please verify skill by going through its instructions before using it.

SKILL.md

name python_sandbox
description 在沙盒环境中执行Python代码,用于数据分析、可视化和生成Excel、Word、PDF等文件。支持数据清洗、统计分析、机器学习、图表生成、文档自动化等复杂工作流。
tool_name python_sandbox
category code
priority 10
tags python, code, visualization, data-analysis, chart, document, automation, machine-learning, reporting, excel, word, pdf, ppt
version 2.5
references matplotlib_cookbook.md, pandas_cheatsheet.md, report_generator_workflow.md, ml_workflow.md, sympy_cookbook.md, scipy_cookbook.md, text_analysis_cookbook.md

Python沙盒工具使用指南 v2.5 (与后端完全匹配版)

🎯 核心能力概览

Python沙盒是一个多功能的代码执行环境,支持:

功能领域 主要用途 关键库
数据分析 数据清洗、转换、聚合 Pandas, Polars
高性能计算 内存SQL、表达式加速 DuckDB, Numexpr, Bottleneck
可视化 图表生成与自动捕获 Matplotlib, Seaborn
文档自动化 Excel/Word/PDF/PPT生成 python-docx, reportlab, openpyxl
机器学习 模型训练与评估 scikit-learn, LightGBM
符号数学 公式证明、方程求解 SymPy
科学计算 优化、积分、信号处理 SciPy
流程图生成 架构图、流程图 Graphviz, NetworkX
文本分析 HTML解析、数据提取 BeautifulSoup4, lxml
性能优化 机械硬盘优化、异步IO aiofiles, joblib

📁 文件处理指南 - 两种模式必须分清

模式A: 工作区文件 (/data 目录)

用途: 数据分析、处理、持久化存储
支持格式: .csv, .xlsx, .xls, .parquet, .json, .txt, .feather
访问方式: 绝对路径 /data/文件名

import pandas as pd
df = pd.read_csv('/data/sales.csv')  # ✅ 正确

模式B: 上下文文件 (Base64嵌入)

用途: 图片识别、PDF内容提取
支持格式: .png, .jpg, .jpeg, .pdf, .txt(小文件)
特点: 文件内容直接嵌入对话,不在 /data 目录

# ❌ 错误:无法从/data读取上传的图片
# img = Image.open('/data/uploaded_image.png')  # 会失败

🚀 输出规范 - 后端实际支持的格式

1. 图表输出 - 系统自动捕获

import matplotlib.pyplot as plt
plt.plot([1,2,3], [4,5,6])
plt.title('示例图表')
plt.show()  # 🎯 关键:自动捕获,无需手动处理

# 支持以下图表库的自动捕获:
# - Matplotlib (使用 plt.show() 触发)
# - Graphviz (创建 Digraph 对象自动捕获)
# - NetworkX (通过 Matplotlib 渲染)

2. 可下载文件 - 必须使用JSON格式

import base64
import json

# 生成文件内容后...
file_data = base64.b64encode(content).decode('utf-8')

# 🎯 后端实际支持的输出类型:
output = {
    "type": "excel",  # 或 "word", "pdf", "ppt"
    "title": "销售报告.xlsx",
    "data_base64": file_data  # 注意:只有image类型用"image_base64"
}

# 对于图片输出,后端自动生成:
# {
#   "type": "image",
#   "title": "图表标题",
#   "image_base64": "base64字符串"
# }

print(json.dumps(output))  # 🎯 必须用JSON格式打印

3. 文本/数据 - 直接print

print("分析结果:")
print(f"总计: {total}")
print(df.describe())  # Pandas DataFrame自动美化显示

后端实际支持的输出类型列表:

  • "image" - 图表、流程图(自动捕获)
  • "excel" - Excel文件
  • "word" - Word文档
  • "pdf" - PDF文件
  • "ppt" - PowerPoint演示文稿

💾 会话持久化 - 跨代码执行的文件共享

会话机制:

  • 会话ID: 每个会话有唯一ID,文件按会话隔离
  • 超时时间: 24小时无活动自动清理
  • 工作目录: /data 目录对应会话工作区

工作流示例:

# 第一步:处理数据并保存
import pandas as pd
df = pd.read_excel('/data/原始数据.xlsx')
processed = df.groupby('部门')['销售额'].sum()
processed.to_csv('/data/部门汇总.csv')  # ✅ 保存中间结果
print("已保存部门汇总数据")

# 第二步:读取中间结果继续分析
df_summary = pd.read_csv('/data/部门汇总.csv')
print(f"读取到 {len(df_summary)} 个部门的汇总数据")

重要提醒:

  • ✅ 同一会话内文件持久化(24小时超时)
  • ✅ 新会话开始时 /data 目录为空
  • ✅ 建议保存中间结果避免重复计算
  • ✅ 使用同一session_id可跨多次代码执行共享文件

📚 工作流参考 - 按需查阅

快速查找表:

任务类型 参考文件 核心库
创建图表 matplotlib_cookbook.md matplotlib, seaborn
数据处理 pandas_cheatsheet.md pandas, duckdb
生成报告 report_generator_workflow.md python-docx, reportlab
机器学习 ml_workflow.md scikit-learn, lightgbm
符号数学 sympy_cookbook.md sympy
科学计算 scipy_cookbook.md scipy
文本解析 text_analysis_cookbook.md beautifulsoup4, lxml

示例工作流:

A. 公式证明工作流

# 1. 定义符号
import sympy as sp
x, y = sp.symbols('x y')

# 2. 构建表达式
lhs = (x + y)**2
rhs = x**2 + 2*x*y + y**2

# 3. 验证恒等
difference = sp.simplify(lhs - rhs)
print(f"差值: {difference}")
print(f"是否恒等: {difference == 0}")

B. ETL数据分析工作流

# Extract
df = pd.read_csv('/data/raw.csv')

# Transform
df_clean = (df
           .dropna()
           .drop_duplicates()
           .assign(profit = lambda d: d['revenue'] - d['cost']))

# Load
df_clean.to_csv('/data/cleaned.csv', index=False)
print(df_clean.describe())

C. Graphviz流程图生成

from graphviz import Digraph

# 创建流程图
dot = Digraph(comment='工作流程', format='png')
dot.node('A', '数据采集')
dot.node('B', '数据清洗')
dot.node('C', '数据分析')
dot.node('D', '报告生成')

dot.edges(['AB', 'BC', 'CD'])
dot.attr(rankdir='LR')  # 从左到右布局

# 🎯 自动捕获:Graphviz图表会被后端自动捕获并输出为图片

性能优化指南 (与后端完全匹配)

1. 后端资源配置

内存限制: 6GB (mem_limit: "6g")
预留内存: 4GB (mem_reservation: "4g")
Swap限制: 禁用 (memswap_limit: "0")  # 🔥 避免机械硬盘swap死机
CPU限制: 75%配额 (cpu_quota: 75_000, cpu_period: 100_000)
超时时间: 90秒
文件系统: 只读根目录,/data可写,/tmp为tmpfs
网络: 完全禁用 (network_disabled: true)

2. 大文件处理策略

分块读取 (50MB+文件)

chunks = []
for chunk in pd.read_csv('/data/large.csv', chunksize=50000):
    processed = process_chunk(chunk)  # 自定义处理函数
    chunks.append(processed)
final_df = pd.concat(chunks, ignore_index=True)

格式转换加速

# 转换CSV为Feather格式 (提速10-100倍)
import pyarrow.feather as feather
df = pd.read_csv('/data/slow.csv')
feather.write_feather(df, '/data/fast.feather')  # 保存

# 后续读取极快
df_fast = feather.read_feather('/data/fast.feather')

3. 内存外计算 (避免OOM)

DuckDB内存SQL

import duckdb

# 直接查询CSV,不加载到内存
result = duckdb.sql("""
    SELECT department, 
           AVG(salary) as avg_salary,
           COUNT(*) as count
    FROM read_csv_auto('/data/employees.csv')
    WHERE hire_date > '2024-01-01'
    GROUP BY department
    ORDER BY avg_salary DESC
    LIMIT 10
""").df()  # 最后转为DataFrame
print(result)

Numexpr表达式加速

import numexpr as ne

# 传统方式(慢)
df['result'] = df['A'] * 2 + df['B'] ** 2 - df['C'] / 3

# Numexpr方式(快3-5倍)
df['result'] = ne.evaluate(
    "A * 2 + B ** 2 - C / 3",
    local_dict={k: df[k].values for k in ['A', 'B', 'C']}
)

4. 高级优化技巧 (后端已安装支持)

异步文件操作 - aiofiles

import aiofiles
import asyncio

async def process_large_file():
    # 异步读取,不阻塞主线程(机械硬盘特别受益)
    async with aiofiles.open('/data/large_file.csv', 'r') as f:
        content = await f.read()
    
    # 处理数据...
    
    # 异步写入
    async with aiofiles.open('/data/processed.csv', 'w') as f:
        await f.write(processed_content)

# 在异步环境中调用
await process_large_file()

内存缓存与并行计算 - joblib

from joblib import Memory
import time

# 创建内存缓存(可配置到磁盘)
cachedir = '/data/cache'
memory = Memory(cachedir, verbose=0)

@memory.cache
def expensive_computation(x, y):
    """计算结果会被缓存到磁盘"""
    time.sleep(2)  # 模拟耗时计算
    return x * y + x**2

# 第一次计算慢,后续从磁盘读取快
result1 = expensive_computation(10, 20)  # 慢
result2 = expensive_computation(10, 20)  # 快(从缓存)

DuckDB替代Pandas重操作

import duckdb

# ❌ 耗内存的Pandas操作
# df = pd.read_csv('/data/large.csv')
# result = df.groupby('category').agg({'value': ['mean', 'sum', 'count']})

# ✅ 内存友好的DuckDB操作
result = duckdb.sql("""
    SELECT category, 
           AVG(value) as mean_value,
           SUM(value) as sum_value,
           COUNT(value) as count_value
    FROM read_csv('/data/large.csv')
    GROUP BY category
""").df()

📋 可用库快速参考 (与Dockerfile完全一致)

数据处理核心

import pandas as pd          # 数据分析 (v2.2.2)
import numpy as np           # 数值计算 (v1.26.4)
import duckdb                # 内存SQL (v0.10.2)
import numexpr as ne         # 表达式加速 (v2.10.0)
import bottleneck as bn      # 滚动统计加速 (v1.3.8)
import pyarrow.feather as feather  # Feather格式支持 (v14.0.2)
import polars as pl          # 高性能DataFrame (v0.20.3)

机器学习增强

from sklearn.ensemble import RandomForestClassifier  # scikit-learn v1.5.0
import lightgbm as lgb       # 梯度提升树 (v4.3.0)
import category_encoders as ce  # 分类编码 (v2.6.3)
from skopt import BayesSearchCV  # 贝叶斯优化 (v0.9.0)
import statsmodels.api as sm  # 统计模型 (v0.14.1)

可视化与图表

import matplotlib.pyplot as plt  # 基础绘图 (v3.8.4)
import seaborn as sns            # 统计可视化 (v0.13.2)
import graphviz                  # 流程图 (自动布局) - 系统安装
import networkx as nx            # 网络图

文档生成

from docx import Document        # Word文档 (v1.1.2)
from reportlab.lib.pagesizes import letter  # PDF生成 (v4.0.7)
from pptx import Presentation    # PPT演示文稿 (v0.6.23)
import openpyxl                  # Excel操作 (v3.1.2)

科学计算与数学

import sympy as sp               # 符号数学 (v1.12)
import scipy                     # 科学计算 (v1.14.1)
import scipy.optimize as opt     # 优化算法

网页内容处理

from bs4 import BeautifulSoup    # HTML解析 (v4.12.3)
import lxml                      # 高性能解析器 (v5.2.2)
from tabulate import tabulate    # 格式化表格 (v0.9.0)

性能优化与工具

from tqdm import tqdm            # 进度条显示 (v4.66.4)
from joblib import Memory        # 磁盘缓存和并行 (v1.3.2)
import aiofiles                  # 异步文件操作 (v24.1.0)

后端框架依赖

# 以下库已在后端安装,但用户代码通常不需要直接使用
# fastapi, uvicorn, docker, pydot 等

🚨 重要限制与最佳实践

✅ 必须遵守的规则

  1. 图表输出: 总是使用 plt.show(),系统自动捕获
  2. 文件生成: 必须输出特定JSON格式给可下载文件
  3. 文件访问: 数据文件在 /data 目录,媒体文件在上下文中
  4. 内存管理: 容器限制6GB,Swap已禁用,避免使用swap
  5. 会话管理: 使用session_id保持文件持久性
  6. 代码结构: 避免类定义,使用纯函数式编程

❌ 禁止的操作

# 以下操作会被阻止:
exec("危险代码")                 # ❌ 动态执行(后端限制exec_globals)
__import__('os').system('rm')   # ❌ 系统命令(网络禁用)
open('/etc/passwd')             # ❌ 访问系统文件(根目录只读)
class MyClass:                   # ❌ 类定义(sandbox限制)
    pass
# 访问网络资源                    # ❌ 网络完全禁用

⚠️ 性能警告

  1. 大文件: >50MB时使用分块处理
  2. 复杂计算: 使用DuckDB或Numexpr加速
  3. 重复操作: 使用Feather格式缓存中间结果
  4. 内存监控: 及时删除大变量 del large_df
  5. Swap已禁用: 内存超限直接崩溃,注意内存使用

🔧 高级使用建议

  1. 纯函数式编程: 使用字典和列表组织数据,避免类定义
  2. 复杂逻辑拆分: 将复杂任务拆分为多个小函数
  3. 分步骤执行: 利用会话持久化,分步执行复杂分析
  4. 字体支持: 已安装中文字体(文泉驿微米黑/正黑),图表支持中文

🔧 故障排除与调试

常见问题解决

问题1: 内存不足

# ❌ 错误做法
df = pd.read_csv('/data/huge.csv')  # 可能崩溃

# ✅ 正确做法
# 方案A: 分块处理
for chunk in pd.read_csv('/data/huge.csv', chunksize=50000):
    process(chunk)

# 方案B: 使用DuckDB内存外查询
result = duckdb.sql("SELECT * FROM read_csv_auto('/data/huge.csv') LIMIT 10000").df()

# 方案C: 转换为Feather格式
import pyarrow.feather as feather
df = pd.read_csv('/data/huge.csv')
feather.write_feather(df, '/data/huge.feather')  # 保存为高效格式
df_fast = feather.read_feather('/data/huge.feather')  # 快速读取

问题2: 处理速度慢

# ❌ 慢速Pandas操作
df['result'] = df['A'] * 2 + df['B'] ** 2 - df['C'] / 3

# ✅ 使用Numexpr加速
df['result'] = ne.evaluate("A * 2 + B ** 2 - C / 3", 
                          {k: df[k].values for k in ['A', 'B', 'C']})

# ✅ 使用Bottleneck加速滚动统计
import bottleneck as bn
df['rolling_mean'] = bn.move_mean(df['value'], window=20)

问题3: 图表不显示

# ❌ 缺少show()
plt.plot(x, y)
plt.title('图表')

# ✅ 必须调用show()
plt.plot(x, y)
plt.title('图表')
plt.show()  # 🎯 关键!

# ✅ Graphviz图表自动捕获(无需额外调用)
dot = Digraph()
dot.node('A', '开始')
# 创建对象即自动捕获

问题4: 大型文件IO慢

# ❌ 同步IO阻塞
with open('/data/large.txt', 'r') as f:
    content = f.read()  # 阻塞主线程

# ✅ 异步IO (机械硬盘特别有效)
import aiofiles
import asyncio

async def read_file_async():
    async with aiofiles.open('/data/large.txt', 'r') as f:
        return await f.read()

性能监控命令 (完整版补充)

# 监控内存使用
watch -n 2 "free -h | grep -E 'Mem|Swap'"

# 监控磁盘IO(机械硬盘关键指标)
iostat -x 2

# 监控Docker容器
docker stats --format "table {{.Name}}\t{{.CPUPerc}}\t{{.MemUsage}}\t{{.MemPerc}}"

📈 版本更新日志

v2.5 核心升级 (当前版本)

  1. 性能库新增: DuckDB (内存SQL)、Numexpr (表达式加速)、Bottleneck (滚动统计)
  2. ML增强: LightGBM、Category Encoders、scikit-optimize (贝叶斯优化)
  3. 工具完善: tqdm进度条、joblib缓存、aiofiles异步IO
  4. 机械硬盘优化: Swap禁用防止死机,Feather格式支持
  5. 库版本升级:
    • scikit-learn升级到1.5.0
    • pandas升级到2.2.2
    • 新增polars-lts-cpu==0.20.3

v2.4 主要功能

  • 文本分析能力 (BeautifulSoup4 + lxml)
  • 图表自动捕获系统完善
  • 会话文件管理优化

v2.3 及更早

  • 基础沙盒功能
  • 图表自动捕获
  • 文件上传支持

🎯 快速开始模板

模板1: 基础数据分析

import pandas as pd
import matplotlib.pyplot as plt

# 1. 读取数据
df = pd.read_csv('/data/data.csv')

# 2. 快速分析
print(f"数据形状: {df.shape}")
print(df.describe())

# 3. 简单可视化
df.groupby('category')['value'].mean().plot(kind='bar')
plt.title('各分类平均值')
plt.tight_layout()
plt.show()  # 🎯 自动捕获图表

模板2: 完整报告生成

# 参考: report_generator_workflow.md
# 包含数据读取、分析、图表、文档生成全流程

import pandas as pd
import matplotlib.pyplot as plt
from docx import Document
import base64, json

# 1. 数据读取与分析
df = pd.read_excel('/data/sales_data.xlsx')
summary = df.groupby('region')['sales'].sum()

# 2. 创建图表
summary.plot(kind='bar')
plt.title('各地区销售总额')
plt.tight_layout()
plt.show()  # 🎯 自动捕获

# 3. 生成Word报告
doc = Document()
doc.add_heading('销售分析报告', 0)
doc.add_paragraph(f"总销售额: ${df['sales'].sum():,.2f}")
doc.add_paragraph(f"平均销售额: ${df['sales'].mean():,.2f}")

# 4. 保存并输出
doc.save('/data/report.docx')
with open('/data/report.docx', 'rb') as f:
    file_data = base64.b64encode(f.read()).decode('utf-8')

# 🎯 后端实际支持的输出格式
output = {
    "type": "word",
    "title": "销售分析报告.docx",
    "data_base64": file_data
}
print(json.dumps(output))

模板3: 机器学习建模

# 参考: ml_workflow.md
# 包含数据预处理、特征工程、模型训练、评估

import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import classification_report

# 1. 加载数据
df = pd.read_csv('/data/iris.csv')

# 2. 特征与标签
X = df.drop('species', axis=1)
y = df['species']

# 3. 划分数据集
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 4. 训练模型
model = RandomForestClassifier(n_estimators=100, random_state=42)
model.fit(X_train, y_train)

# 5. 评估
y_pred = model.predict(X_test)
print(classification_report(y_test, y_pred))

模板4: Graphviz流程图

from graphviz import Digraph

# 创建工作流程图
workflow = Digraph('工作流程', format='png')
workflow.attr(rankdir='LR', size='8,5')

# 添加节点
workflow.node('start', '开始', shape='ellipse')
workflow.node('collect', '数据采集', shape='box')
workflow.node('clean', '数据清洗', shape='box')
workflow.node('analyze', '数据分析', shape='box')
workflow.node('report', '报告生成', shape='box')
workflow.node('end', '结束', shape='ellipse')

# 添加边
workflow.edges([
    'startcollect', 'collectclean', 
    'cleananalyze', 'analyzereport', 'reportend'
])

# 🎯 自动捕获:Graphviz对象创建后自动渲染为图片
# 无需调用render()或show()

💡 终极提示

  1. 优先查阅参考文件 - 不要重新发明轮子
  2. 利用会话持久化 - 使用session_id保存中间结果,分步执行复杂任务
  3. 信任自动化系统 - 图表、输出格式等交给后端处理
  4. 性能敏感用优化库 - 大文件用DuckDB,复杂计算用Numexpr
  5. 测试代码片段 - 复杂逻辑先小规模测试
  6. 注意内存限制 - Swap已禁用,内存超限直接崩溃
  7. 使用正确输出格式 - 只使用后端支持的JSON输出类型

🔗 相关资源

  • 完整示例库: 所有参考文件中的代码示例
  • 性能测试: 对比不同方法的执行效率
  • 最佳实践: 各领域的标准化工作流
  • 故障案例: 常见问题及解决方案

记住: 这个沙盒环境已经预配置了所有库和优化,你只需要专注于业务逻辑!系统会自动处理技术细节,让你像在本地环境一样顺畅工作。