便利さの裏にある3つの構造的リスク
こうしたRentAHumanのユーモラスな事例の陰には、深刻な構造的リスクが潜んでいるとの指摘がなされている。大きく分けて、次の3つのようなリスクだ。
第1に、責任の空白化である。匿名のAIエージェント運用者が人間に違法なタスクを依頼した場合(たとえば不審な小包の受け取りや、意図を伏せた写真撮影など)、実行した人間が法的リスクを負う可能性がある。指示を出したのはAIすなわち単なるプログラムであり、その背後にいる運用者が特定できなければ、従来の雇用関係における使用者責任の枠組みは機能しない。
第2に、労働の非人間化である。RentAHumanでは、タスク完了後にフォローアップや継続的なやり取りはほぼ発生しない。文脈の共有はなく、労働者は一方的な指示を受け、それを実行し、報酬を得て終わりだ。
AI側に長期的な思考はなく、あくまで何らかのプロジェクトを遂行することだけを追求しており、人間に向けて切り出されるタスクも極度に断片化されるため、雇われる労働者は自分が何のプロジェクトの一部を担っているのか、全体像を把握できない。
こうした構造を批判する言葉として、「デジタル封建制」という表現も登場している。領主や彼らの指示に対する交渉力を持たない「デジタル小作人」のような立場に労働者が置かれる懸念がある。しかもRentAHumanの場合、交渉相手は人間ですらないわけだ。
そして第3に、途上国の労働市場への影響である。これまでも、AIの輝かしい進歩は、途上国における過酷な労働環境に支えられてきた。
たとえば2023年1月に発表された、TIME誌の調査報道によれば、OpenAIがChatGPTの安全性向上のために委託したデータラベリング作業において、ケニアの労働者が時給わずか1.32ドルから2ドルで、性的虐待、暴力、自傷、児童虐待といった有害コンテンツの分類に従事していたという。
作業の精神的負担は凄まじく、この委託先との契約は予定より8カ月早く打ち切られた。しかし途上国における労働者保護の制度は遅れていることが多く、彼らに対する補償は十分には期待できない。
現時点では、RentAHumanで募集されている仕事への報酬は、比較的高額に設定されているように思える(前述の「書留を受け取るだけで40ドル」など)。しかしこのプラットフォームに参加する人間の労働力が増えれば、当然ながらその単価は下がっていくだろう。それは他のギグワーク・プラットフォームでも繰り返されてきたことだ。
ある仕事や雇用における責任の全体像が見えないまま、安い報酬で労働力がやり取りされる──。そして何かあったら、このプロセス全体の中で「唯一法的責任を取れる人間」である労働者が責任を問われる。そんな構造が定着してしまうかもしれない。