はじめに
本記事の技術は前章までの内容に基づいているので,技術に興味のある方はそちらも合わせてご覧ください.
概要
自律ドローンを利用した災害時での避難勧告及び救助要請用対話システムを提案します.使用したドローンはTelloです.
社会的背景
日本における自然災害は年々増加傾向にあり,人的被害や金銭的被害への対策が求められています.また,自宅を安全だと思い込み避難しない人は多く,よりパーソナルに危機感を煽る方法が模索されています.西日本豪雨の被災者310名に行ったNHKのアンケートでは対人的な呼びかけで避難をするきっかけになった人は全体の約3割存在していることが知られています.
システムのプロトタイプ
実装したシステムのプロトタイプは以下の通りです.
災害発生後または災害中にドローンは被災者や被災予備軍を捜索します.人を見つけ次第,人と対話し,自力で避難可能かの判断を行います.対話方法としては音声解析,画像解析,姿勢解析を用いたフィードバックです.自力で避難可能な人には避難勧告を行い,身動きがとれない人や高齢者や身体的に不自由な人(避難困難者)には救助要請を行います.
具体的なシステム構成を以下に示します.
Step1:人の発見と接近
人検知の手法にはyoloやopenCVのtracking APIを用いることができます。これにより人間へのドローンの追跡が可能となります。まずドローンのカメラから得た画像を一定間隔でPCに転送し、yoloで物体の検出を行います。ここではyolo内の重みデータを利用することで人間を見分けています。人を発見したら追跡を開始します。これはyoloで得た情報をtracking APIに適応し、人の領域の範囲と中心からのずれを一定に抑えるように制御することで実現しました。以下の図に検知と追跡のイメージを以下に示します。
Step2:音声による確認
Alexa Skills Kit SDK for Pythonを用いてAlexa スキルの開発を行いました。Alexa developer consoleで音声入力を受け付け、自然言語処理と意図解釈が行われます。言語処理結果をAWSIoTCoreでのMQTT通信でローカル環境に反映されます。
Step3:画像による姿勢認識
姿勢検出にはOpenposeを使用しました.元論文はこちら.
Openposeとは,ディープラーニングを利用することで一枚の画像のみから人の関節とその関係性を検出できる技術のことです.音がうまく認識できないとき(大雨、方言など)にジェスチャーによってコミュニケーションを行うことが可能になります.
デモ映像
以上のシステムを実装したデモ映像をご覧ください.
おわりに
いかがでしたか?Telloドローン1台に様々なAIの機能(画像認識,音声処理,姿勢推定)を実装できることが分かったと思います.一方で実用性を考えると,まだまだハードウェアの性能はボトルネックになります.例えばバッテリーの駆動時間や騒音対策,さらには安全性の面で課題は山積みです.今後もAIソフトウェアと親和性の高いデバイスの登場に期待しましょう.