Slop Or Not Logo

AI 에이전트용 로컬 점수화

Claude, Codex, Hermes Agent, OpenClaw용 AI 감지 MCP

Slop or Not MCP 서버를 사용하면 Claude, Codex, Hermes Agent, OpenClaw, Cursor 및 기타 에이전트가 Mac의 로컬 AI 텍스트 감지기, AI 이미지 감지기, 가독성 분석기, 정리 도구를 호출할 수 있습니다.

MCP는 Model Context Protocol의 약자로, AI 에이전트가 로컬 도구를 호출하는 표준 방식입니다. 클라우드 감지 API와 달리 여기로 보낸 텍스트와 이미지는 Slop or Not 서버가 아니라 서명된 Mac 앱에서 처리됩니다.

Download on the App Store
Mac의 Slop or Not MCP 설정 화면
클라이언트 설정 스니펫은 번들된 Mac 앱 바이너리를 가리킵니다.
로컬 stdio 서버
MCP 클라이언트가 번들된 slop 바이너리를 시작하고 stdio로 통신합니다.
6개 도구
상태, 텍스트 감지, 가독성, 정리, 이미지 감지, 원시 이미지 점수화.
Pro 필요
Pro가 활성화되어 있지 않으면 도구 호출은 Pro 필요 오류를 반환합니다. 서버는 계속 실행됩니다.

클라이언트 설정

MCP 클라이언트에 Slop or Not을 어떻게 추가하나요?

Mac 앱을 설치하고 Pro를 활성화한 뒤 slop을 PATH에 넣고, 클라이언트용 스니펫을 사용하세요. Claude, Codex, Hermes Agent, OpenClaw, Cursor는 모두 같은 로컬 서버를 가리킵니다.

Claude CodeSlop or Not을 사용자 범위 stdio 서버로 추가하고 Claude Code를 재시작한 다음 /mcp로 확인하세요.
claude mcp add --transport stdio --scope user SlopOrNot -- slop mcp
Claude Desktop~/Library/Application Support/Claude/claude_desktop_config.json에 이 JSON 형식을 사용한 다음 Claude Desktop을 재시작하세요.
{
  "mcpServers": {
    "SlopOrNot": {
      "command": "slop",
      "args": ["mcp"]
    }
  }
}
Codex~/.codex/config.toml에 서버를 추가한 다음 Codex를 재시작해 새 MCP 서버 목록을 읽게 하세요.
[mcp_servers.SlopOrNot]
command = "slop"
args = ["mcp"]
Hermes AgentHermes Agent 설정에 Slop or Not을 MCP 서버로 추가한 다음 Hermes Agent를 재시작해 로컬 도구를 호출할 수 있게 하세요.
mcp_servers:
  SlopOrNot:
    command: "slop"
    args: ["mcp"]
OpenClawOpenClaw MCP CLI에 Slop or Not을 등록한 다음, 이미 실행 중이었다면 OpenClaw를 재시작하세요.
openclaw mcp set slopornot '{"command":"slop","args":["mcp"]}'
Cursor전역 서버에는 ~/.cursor/mcp.json에 추가하고, 한 프로젝트에만 쓰려면 프로젝트 루트의 .cursor/mcp.json에 추가하세요.
{
  "mcpServers": {
    "SlopOrNot": {
      "command": "slop",
      "args": ["mcp"]
    }
  }
}

도구 참조

Slop or Not MCP 서버는 무엇을 제공하나요?

서버는 집중된 6개 도구를 제공합니다. 페이로드 예시는 필요할 때까지 닫혀 있으므로, 페이지는 먼저 설정 가이드처럼 읽히고 그다음 참조 문서처럼 읽힙니다.

slop_status

앱 및 Pro 상태 확인

에이전트가 워크플로를 시작하기 전에 앱이 설치되어 있는지, 바이너리가 실행되는지, Pro가 활성 상태인지 확인합니다.

페이로드와 결과 보기

도구 입력

{}

결과 형식

{
  "pro": true,
  "version": "1.0.9"
}
detect_text

AI 텍스트 감지

온디바이스 텍스트 감지기로 문단을 점수화하고 로컬 AI 판정, 점수, 가독성 지표를 반환합니다.

페이로드와 결과 보기

도구 입력

{
  "text": "<text>",
  "include_readability": true,
  "language_code": "en"
}

결과 형식

{
  "kind": "result",
  "verdict": "real",
  "score": 0.0,
  "language": "en",
  "sentence_count": 6,
  "generator": null,
  "readability": {
    "language": "en",
    "language_confidence": 0.9996,
    "scores": [
      { "kind": "fleschReadingEase", "value": 75.18 },
      { "kind": "fleschKincaidGradeLevel", "value": 5.51 }
    ],
    "stats": { "word_count": 66, "sentence_count": 6 },
    "warnings": [],
    "avg_words_per_sentence": 11,
    "word_count": 66,
    "sentence_count": 6
  }
}
analyze_readability

가독성 분석

AI 감지를 실행하지 않고 읽기 수준 지표를 계산합니다.

페이로드와 결과 보기

도구 입력

{
  "text": "<text>",
  "language_code": "en"
}

결과 형식

{
  "language": "en",
  "language_confidence": 0.9996,
  "scores": [
    { "kind": "fleschReadingEase", "value": 88.54 },
    { "kind": "fleschKincaidGradeLevel", "value": 2.65 }
  ],
  "avg_words_per_sentence": 7,
  "sentence_count": 5,
  "word_count": 35,
  "warnings": []
}
clean_text

텍스트 흔적 정리

다음 감지 단계 전에 제로폭 문자, 동형 문자, 장식성 구두점을 제거합니다.

페이로드와 결과 보기

도구 입력

{
  "text": "<text>",
  "remove_invisibles": true,
  "remove_punctuation": true,
  "remove_homoglyphs": true
}

결과 형식

{
  "cleaned_text": "<cleaned_text>",
  "language": "en",
  "removed_invisibles": 1,
  "punctuation_replacements": 1,
  "homoglyphs_replaced": 0,
  "british_substitutions": 0
}
detect_image

AI 이미지 감지

C2PA 및 IPTC 출처 정보를 읽고 온디바이스 모델 폴백을 사용해 JPEG, PNG, HEIC 또는 WebP 이미지 바이트를 로컬에서 검사합니다.

페이로드와 결과 보기

도구 입력

{
  "image_base64": "<base64>",
  "recognize_text": true
}

결과 형식

{
  "kind": "result",
  "verdict": "most_likely_ai_slop",
  "score": 0.80,
  "generator": null,
  "recognized_text": null,
  "recognized_sentence_count": null
}
score_image

AI 이미지 점수화

에이전트가 전체 이미지 감지 응답 없이 모델 신호만 필요할 때 원시 OmniAID 이미지 점수를 반환합니다.

페이로드와 결과 보기

도구 입력

{
  "image_base64": "<base64>"
}

결과 형식

{
  "kind": "score",
  "score": 0.80
}

확인

MCP 서버는 어떻게 확인하나요?

재시작 후 에이전트에게 slop_status를 실행해 달라고 하세요. 예상 결과는 오류 없이 로컬 앱과 Pro 상태를 보고하는 도구 호출입니다.

{
  "pro": true,
  "version": "1.0.9"
}

문제 해결

MCP 클라이언트가 Slop or Not을 찾지 못하면 어떻게 하나요?

일부 앱은 로그인 셸 PATH 없이 실행됩니다. 이 경우 MCP 설정에서 앱 번들 안의 바이너리를 직접 가리키세요.

{
  "mcpServers": {
    "SlopOrNot": {
      "command": "/Applications/Slop Or Not - AI Fake Detector.app/Contents/MacOS/slop",
      "args": ["mcp"]
    }
  }
}

로컬 API

에이전트가 클라우드 AI 감지 API 대신 이것을 사용할 수 있나요?

에이전트 워크플로라면 가능합니다. MCP는 Claude, Codex, Hermes Agent, OpenClaw, Cursor 및 기타 클라이언트에 호스팅 AI 감지 API 대신 로컬 도구 인터페이스를 제공합니다. 클라이언트는 stdio를 통해 텍스트 또는 이미지 데이터를 번들된 Mac 바이너리로 보내고, 검사는 Mac에서 실행됩니다.

에이전트와 함께 반복

Slop or Not은 Agentic Humanizer와 어떻게 함께 작동하나요?

Agentic Humanizer는 MCP 도구를 호출하고, 기준 점수를 내고, 기계적인 흔적을 정리한 뒤 초안을 로컬에서 다시 점수화할 수 있습니다. 선택적 문체 맞춤은 에이전트가 담당합니다. 사용자의 글 샘플이 재작성 방향을 잡고, Slop or Not은 로컬 측정을 처리합니다.

Slop or Not은 보장이 아니라 확률 판정을 반환합니다. 새 AI 모델, 짧은 문단, 사람이 많이 편집한 글에 따라 결과가 달라질 수 있습니다.