トレーニングを受けるCAは、姿勢を計測するセンサー、視線の動きを捕捉するセンサー、バイタルセンサーを装着する。これらにより、接客時の姿勢、搭乗客への視線、歩くスピード、緊張具合などのデータを収集し、ローカル5G経由でサーバーに転送する。さらに施設に設置したマイクとカメラを使い、会話音声と動作の動画もサーバーにリアルタイムで送る。

 トレーニングを行う前に、複数人の教官がマニュアルに沿う形でサービスを行い、手本となるデータをあらかじめ作成しておく。そのうえで、トレーニングを受けるCAが同じようにセンサーを装着してサービスを実施する。そしてリアルタイムで収集したデータと手本のデータを比較し、トレーニングの結果をその場で評価する。

トレーニングの評価結果画面のイメージ

 サービスを終えると、すぐに手元のタブレット端末に評価結果が点数とグラフで表示される。さらに、改善の余地がある項目を深掘りして詳しく調べることもできる。たとえば、トレーニング時に撮影した自身の動画と教官の手本動画を見比べることで、接客時の所作の改善につなげられる。また、食事サービスなどのときの感情がグラフ表示されるので、ストレス度が高い傾向にあるCAを教官が把握し、適切なフォローに役立てるといった使い方もできる。

 音声データは自動的にテキスト変換して解析する。それにより「話すスピードが速すぎないかを評価したり、搭乗客とのコミュニケーションで必要な言葉やキーワードを正しく用いているかを確認したりできる」(デジタル変革室イノベーション推進部の熊谷成隆氏)。

 もう一つの例が、機内で食事の準備をするギャレーの安全確認作業のトレーニングだ。視線の動きを捕捉するセンサーを載せたゴーグルを装着すると、ギャレーを再現したVR(仮想現実)画像が表示される。CAはVR画像に映し出されたギャレーの扉や、カートの飛び出しを防ぐロックなどの安全装置を目視しながらリモコンボタンを押し、確認作業を進める。

 この作業のデータはリアルタイムにサーバーへ送られ、作業終了時に、確認を見落とした場所の割合が、ゴーグルにフィードバックされる。