投稿テキスト妥当性チェック

 

指定されたテキストに不適切な言葉が含まれるかチェックします。
ユーザがテキストを投稿する機能を有する箇所には必ず適用してください。ProfanityAPIで不適切と判断された投稿はアプリケーション上に表示しないでください。

URI Fragment

/profanity

署名方式

  • 2-legged(Trusted モデル)
  • 3-legged(Proxy モデル)

OAuth 認証についてはこちら、リクエストの署名や Authorization ヘッダーの作成についてはこちらを参照して下さい。

HTTP メソッド

GET

リクエストヘッダー

  • Authorization ヘッダーは必須になります。

URL クエリパラメータ

パラメータ名

説明

必須

text

文字列

ユーザから投稿された自由文テキスト

Yes

format

文字列

"json" を指定して下さい

No

リクエスト本文

なし

レスポンスコード

HTTP ステータスコード

HTTP ステータスメッセージ

説明

200

OK

データの取得が成功した場合

400

Bad Request

クライアント側のリクエストデータが不正です

401

Unauthorized

認証エラーです

403

Forbidden

リソースは存在するが認証エラー以外の理由でアクセス出来ない場合です

500

Internal Server Error

API サーバー側のエラーです

503

Service Unavailable

一時的に API が利用不可となっている場合です

レスポンス本文

  • 入力テキストに不適切な言葉が含まれていれば false、そうでなければ true。
  • Content-Type: application/json; charset=utf-8

実例

下記入力テキストは「殺す」のような不適切な言葉です。リクエストに含まれるため URLEncode されています。

 

Base String
HTTP リクエスト
HTTP レスポンス

PREVIOUS

Profanity

NEXT

Blacklist