毒性检测器API旨在分析和分类文本片段中的毒性。该API通过准确评估潜在有害内容,帮助维护安全和尊重的对话空间。当提交任何文本作为输入时,系统会返回一个总体毒性评分、一个清晰的分类(如“非毒性”或“毒性”)以及按类别的详细分解,包括一般毒性、严重毒性、猥亵语言、威胁、侮辱和基于身份的仇恨。
得益于先进的自然语言处理(NLP)模型,该API能够识别语言中的微妙差异,甚至检测到伪装成虐待、被动攻击或两极分化语言的表达。每次分析都包括置信水平以支持自动决策或人工辅助的审核。
要使用此端点,您必须指定要分析的文本以评估毒性水平
毒性检测 - 端点功能
| 对象 | 描述 |
|---|---|
请求体 |
[必需] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7795/toxicity+detector+api/12765/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| 标头 | 描述 |
|---|---|
授权
|
[必需] 应为 Bearer access_key. 订阅后,请查看上方的"您的 API 访问密钥"。 |
无长期承诺。随时升级、降级或取消。 免费试用包括最多 50 个请求。
API返回一个总体毒性得分,一个分类标签(例如“非毒性”或“毒性”),以及对毒性类别的详细分类,例如一般毒性、严重毒性、猥亵语言、威胁、侮辱和基于身份的仇恨
响应中的关键字段包括“毒性评分”“分类”和类别细分如“一般毒性”“严重毒性”“淫秽”“威胁”“侮辱”和“仇恨言论”每个字段都有置信水平
响应数据采用JSON格式结构,其中主对象包含整体毒性分数和分类,后面是每个毒性类别的嵌套对象,详细说明了分数和置信水平
POST端点的主要参数是“文本”字段,用户在此输入他们想要分析的毒性文本。其他参数可能包括语言设置或特定的毒性类别以便聚焦
数据准确性通过先进的自然语言处理(NLP)模型得以维持,这些模型定期更新并在多样化的数据集上进行训练,以识别微妙的语言细微差别和不断演变的毒性表达
典型的用例包括对在线论坛进行管理 分析用户生成内容中的有害语言 加强社区指南 以及开发聊天应用中的安全通信工具
用户可以通过将毒性分数和分类集成到审核工作流中利用返回的数据 触发高毒性水平的警报 或生成报告以评估社区健康与安全
质量检查包括对真实世界数据的持续模型评估、用户反馈循环以及性能指标,以确保API能够准确检测和分类各种上下文和语言中的毒性
服务级别:
100%
响应时间:
65ms
服务级别:
100%
响应时间:
61ms
服务级别:
100%
响应时间:
382ms
服务级别:
100%
响应时间:
950ms
服务级别:
100%
响应时间:
74ms
服务级别:
100%
响应时间:
1,373ms
服务级别:
100%
响应时间:
188ms
服务级别:
100%
响应时间:
5,750ms
服务级别:
100%
响应时间:
307ms
服务级别:
100%
响应时间:
1,101ms
服务级别:
100%
响应时间:
565ms
服务级别:
100%
响应时间:
181ms
服务级别:
100%
响应时间:
3,360ms
服务级别:
100%
响应时间:
229ms
服务级别:
100%
响应时间:
195ms
服务级别:
100%
响应时间:
1,588ms
服务级别:
100%
响应时间:
205ms
服务级别:
100%
响应时间:
423ms
服务级别:
100%
响应时间:
2,848ms
服务级别:
100%
响应时间:
827ms