Video Intelligence APIのPrivate Beta使えるようになったので、少し感想を。
.MOV、.MPEG4、.MP4、.AVIの動画フォーマットは対応しているとのこと
顔認識、ラベル認識、そして、動画のシーンの区切りを認識できるようです。
- Face detection
features = [enums.Feature.FACE_DETECTION] operation = video_client.annotate_video(path, features operation.result().annotation_results[0]. face_annotations
- Label detection
video_service_request = video_service.videos().annotate( body={ 'inputUri': gcs_uri, 'features': ['LABEL_DETECTION'] }) response = video_service_request.execute() labelData = response['response']['annotationResults'][0]['labelAnnotations']
- Shot change detection
const request = { inputUri: gcsPath, features: ['SHOT_CHANGE_DETECTION'] }; video.annotateVideo(request) const shotChanges = doneResponse[0].annotationResults[0].shotAnnotations;
の動画を、Cloud Video Intelligence API で解析したところ、44分ほどの動画でしたが、6分ほどで処理が完了。処理リージョンは、asia-east1を使用。
解析結果は以下jsonで返されます。
labelAnnotations[] | ラベル認識結果一覧 |
labelAnnotations[].description | ラベル認識結果 |
labelAnnotations[].languageCode | |
labelAnnotations[].locations[].segment.startTimeOffset | ラベル認識された認識開始時間 |
labelAnnotations[].locations[].segment.endTimeOffset | レベル認識された認識終了時間 |
labelAnnotations[].confiidence | |
labelAnnotations[].level | |
facelAnnotations[].segments.startTimeOffset | 顔認識された認識開始時間 |
facelAnnotations[].segments.endTimeOffset | 顔認識された認識終了時間 |
shotAnnotations[] | シーンの変化 |
shotAnnotations[].startTimeOffset | 認識開始時間 |
shotAnnotations[].endTimeOffset | 認識終了時間 |
Cloud Vision APIとそう変わらない感じで使えるように見られます。画像と違って、処理に時間がかかることもあり、Botサービスで利用する場合、処理を受け付けた旨を返して、解析結果が出たら、結果を返す仕組みが必要と思われます。Line botのaccess tokenの有効期限は考慮は必要か。