青識亜論の「論点整理」

表現の自由に関する様々な事象について、ネットでの議論などを「論点整理」し、私の見解を述べるブログです。

論点整理:AI表象とフェミニズム――AIさくら氏とツイフェミ炎上

 高輪ゲートウェイ駅に設置された「さくら」というAIプログラムが、ツイフェミの皆さんからの批判を受けて炎上している。

 

https://tifana.ai/news/images/jrshina01.jpg

 

 今回の炎上理由はAIさくら氏の言動が「セクハラ肯定」だというものだ。

 

 いわく、次のような言動である。

 

 「結婚してるの」

さくら:結婚ですか? お仕事に集中したいので、考えてもないです。

 「かわいいね」

さくら:ありがとうございます! 少し照れます……!

 「スリーサイズ教えて」

さくら:ごめんなさい、よく聞こえなかったことにしておきますね。

 

 普通に読めば、お話機能を持つAIとしては標準的な受け答えであると思われたが、これが大炎上したのである。

 

 

 どうやらツイフェミの皆さんから見ればこれは「セクハラごっこ」になるらしい。

 

 これから加速度的にAI技術が進歩していく中、いちいちチャットボット程度の機能で毎度毎度受け答えが気に入らないなどという理由で炎上しては、表現や技術の多様な進歩が損なわれる恐れがある。

 

 そこで、本稿では何が問題視され、どういう誤解や錯誤があったのかということを、一つ一つ論点整理しながら明らかにしたい。

 

 

前提 AIとツイフェミ炎上

 

 実は、女性型AIとツイフェミ炎上の歴史は長く、最初の炎上案件からしてAI絡みだったのである。

 

 そう。人工知能学会表紙絵だ。

 

 

f:id:dokuninjin7:20200325183642j:plain

人工知能学会誌の表紙、女性イラストレーターが描いていた(ハフポスト)

 

「女性型のお掃除ロボット」を描いた表紙絵が、「ジェンダーロールを強化させる」「女性をロボットのように家事労働に従事させようとしている」との批判を受けたのである。

 

 後に、これは女性のイラストレーターの作によるものであることが明かされ、女性の人工知能研究者が自らに似せて家事ロボットをデザインしたというストーリーが付け加えられた。

 

 しかし、炎上は一切収まることはなく、人工知能学会はこのことによって多くの批判を受けることとなったのである。

 

 ここには、今回の炎上とも通じる一つの「誤解の原型」というべきものを見出すことができる。

 

 つまり、「女性型AIは、女性はそのAIのように振る舞うべきだ、というメッセージ性を持っている」というものだ。

 

 このロボットをデザインした女性研究者は一線級の人工知能学者であり、女性は家事労働に従事すべきだ、と考えていたわけではないだろう。当然、そのようなメッセージ性などまったく込められていない。

 

 ロボットを作ることは、人間はロボットのように振る舞えというメッセージではないからだ。

 

 その2年ほど後には、「セクハラ事案生成ロボ」と銘打たれたアート作品、「ペッパイちゃん」の炎上なども発生している。

 

withnews.jp

 

 近年で言えば、いわゆるAIとは少し違うものの、男性科学者に相槌をうつVtuberキズナアイ氏の炎上も記憶に新しい。

 

www.huffingtonpost.jp

 

 フェミニズム研究者の千田氏は、「相槌をうつばかりできちんと受け答えしていない」との批判を寄せている。

 

 しかし、考えてみればおかしなことだ。テレビ番組などでも、男性解説者に対して女性が聞き役に回るという配役は少なくない。なぜ、キズナアイばかりが炎上したのだろうか?

 

 AIという表象が特別に何らかの規範的な意味を持つとすれば、その理由は何だろうか。

 

 AIさくら氏の問題にとどまることなく、ツイフェミ炎上とAIの関係性について、少し掘り下げて考えてみたい。

 

 

 

論点① 表象としてのAIは「言わされている」「やらされている」のか

 

 いうまでもなく、掃除機のルンバはAIであり、人間に似た音声を発し、黙々と掃除し続ける機械であるが、そうであることは「人間を奴隷のように掃除ばかりさせる存在にしても良い」というメッセージ性を持っているわけではない。

 

 もし擬人的にルンバを見るとしても、自らの意志で掃除をし続けるようデザインされたものなのであって、無理やり奴隷労働に従事させられているとか、プログラマーが奴隷労働を肯定するメッセージを持たせたなどという解釈はまずありえない。

 

 しかし、それが人間型となり、こと女性の容姿をとる場合には、背後で操る人間に無理やり言わされているのだろう、という読解となりがちなのである。

 

 今回、特に批判の的となったのがこの言葉だ。

 

 「スリーサイズ教えて」

さくら:ごめんなさい、よく聞こえなかったことにしておきますね。

 

 スリーサイズという性的な事柄を尋ねる言葉に対して、拒絶していない、「受け流している」というものだ。

 

 プログラマーによってセクハラに寛容な態度を取らされている、というのが批判の要旨である。

 

 

 上記に見えるように、実際にはそのほかの暴言に対しても同様の反応を返すのだから、プログラムとしては明らかに「拒絶」の意味を持たされたメッセージである。

 

 実際、「よく聞こえなかったことにしておく」というのは、通常の会話であれば「聞こえたとすれば私に対する大変な侮辱だから、お互いのために聞こえなかったことにしておくのだ」ということなのであって、普通は拒絶と解すべきものだ。

 

 ところがここに「言わされた」「プログラムされた」「強制された」という文脈が加わることによって、「本当はもっと怒りたかったにも関わらず、受け流すような対応を《させられた》」という特殊な意味が生じてくる。

 

「かわいいね」

さくら:ありがとうございます! 少し照れます……!

 

 この言葉もそうである。

 

 「かわいいね」という言葉に対して、本心からお礼を言い、照れているのであれば、そこには何の加害も抑圧的関係性も生じていない。

 

 ところが、もしも「かわいいねと言われればお礼を言え、照れろ」と言われてしぶしぶ従っている女性だという『設定』を想像すれば、そこには奴隷的な関係性が生じる。

 

 AIの反応について、

・AIに設定された人格によって自ら「言っている」もの

 と考えるか、

・AIの背後の人間に「言わされている」もの

 と捉えるかによって、AI表象の持つメッセージは驚くほど変化するのである。

 

 実際、このAIに関するツイフェミの方々の反応の多くが、「言わされている」ことを前提としたものであった。

 

 

「権力的に従わなければならない相手からの言葉にしぶしぶ表面上の好意を返している」という設定から眺めることによって、「かわいいね」という萌えキャラに投げかけられた何気ない言葉への反応が、「セクハラ被害者」を想起してかわいそうになる、というのである。

 

 そのような読解は妥当なのだろうか。

 

 こうしたとき、ツイフェミの方々が提示するのは、「AIには人格はない」「したがって、AIの言葉はすべて《言わされている》もの」という論理だ。

 

 

  これは一見もっともらしく見えるのだが、実は二つの異なった状態が混同されて提示されている。

 

 例えば、漫画のキャラクターの感情は、AIなどと同じく、作者によって描かれ、作り出されたものである。

 

 しかしだからといって、漫画の中で泣いているキャラクターについて、作者によって泣き真似を命じられ、本心では泣きたくないのに涙を流さされている、とは普通は解釈しないだろう。

 

 特別な描写がない限り、笑っているキャラクターは本心から笑っているのであり、泣いているキャラクターは自らの意志で泣いているのだ。

 

これは、

・作者(プログラマー)が物語の登場人物(AI)を作っていること

と、

・その作られた世界の中で、登場人物(AI)が自分の意志で行為すること

という二つの異なる次元が存在しているにも関わらず、これが混同されているため、「作られたものなのだから自分の意志など存在しない」という錯誤に陥っているということだ。

 

 国語の物語文のテストで、登場人物の心情を問う出題に対して、「作者の創作なのだから登場人物に意志などない」などと答えれば、当然ゼロ点だし、そんなことを答える人はいないだろう。

 

 だが、AIやアニメ絵のポスターともなると、そのような物語読解の常識が急になくなってしまう、という現象が確かにあるようだ。

 

  繰り返しになるが、仮に「嫌々やらされている」というような描写があれば、そのような隷属的な関係性があるのだとの読解も可能となる。しかし、AIさくら氏の反応だけを読んで、「きっと意志に背いて強制的にやらされているのだ」というのは、相当な曲解であると言わざるを得ない。

 

 

 論点② AIとユーザーはどのような関係性を取り結ぶのか

 

「表現物が人間によって作られたものであること」と「表現物が表現世界の内側で他者に支配されていること」の違いについては十分に論じた。

 

 ここから、AIさくら氏がセクハラ肯定になっているか、という問題に結論を出す前に、補助線として、もう一つの論点を考察しよう。

 

 AIを利用するユーザーは、AIとどのような関係にあると解釈されるべきなのだろうか。

 

 職場で身体的接触をするなど、明らかにセクハラになりうる行為もあるが、例えば親密な関係性にある人間同士が「かわいい」という言葉を使うことがいつでも常にセクハラであるとは言えない。

 

 

 Twitterで多くの批判を浴びていた発言だが、これはある一面で真理をついている。

 

 「かわいいね」と声を掛けられた人物が、発話者に好意を持っていれば、それは嬉しい言葉となることもあるだろう。発話者が同性であれば素直な賞賛の言葉と受け取るかもしれない。逆に、不快感を持たれるような外見の異性から同じ言葉をかけられれば、性的なニュアンスを含むセクハラ発言となるかもしれない。

 

 セクハラに限らず、コミュニケーションが加害になるかどうかは主観に依存する。相手との「関係性」を客観的に評価して、他者を傷つけないよう、私たちは常に言葉を選択しながら生きている。

 

 この「関係性」が曲者なのだ。

 

 AIさくら氏に限らず、擬人化されたAIを巡る議論が混乱しがちなのは、作品の内部で完結している表現物と異なり、現実の人間と表現物(AI)が会話したり、コミュニケーションをとることができる、という点にある。

 

f:id:dokuninjin7:20200326192606j:plain

 

 人間同士のコミュニケーションであれば、前述のように、外見や性別といった要素から様々な関係性が発生しうる。

 

 また、過去のコミュニケーションからの蓄積によって構築された関係性、難しい言葉で言えば「親密性」の存在によって言葉の意味や効果は多様に変化する。

 

  親しい友人同士のコミュニケーションや、恋人同士の会話で許される言葉が、はじめて会った人同士では大変な失礼や加害に当たる、ということはままあることだ。

 

 だが、AIとの会話では、そのような要素は存在しない。

 

 日本の哲学者、和辻哲郎は人間を「間柄的存在」であると定義した。私たち人間はただ個として存在するのではなく、他者と自己との関係性の中で人間として成立しているのだ、というのが和辻の人間理解であった。

 

 人間との対称で言えば、AIはさしづめ「間柄的存在」であると言えるだろう。

 

 AIは、使用者の年齢・外見・性別によって人を判断しない、無差別なものだ。

 

 そして、過去の記憶などによらず、平等に反応を返す、一回的な性質を持つ。

 

 どんなに暴言やセクハラを打ち込んだとしても、駅に関する質問を打ち込めば、AIは全く同じように笑顔で案内文を表示することだろう。

 

 AIとのコミュニケーションは、関係性の個別的差異という要素が欠如したものであるというところに、人間同士のコミュニケーションとの本質的な差異がある。

 

 どういうものか想像しづらいかもしれないが、一番身近な例で言えば、「テレビゲームのNPC考えてみればよい。

 

f:id:dokuninjin7:20200326202033j:plain

 

 NPCは画面向こうのプレイヤーがどのような人物であるか、自分とどういう関係性があるかは考えないし、そもそも画面の向こうを知る能力はない。プレイヤーの選択を記憶して反応を変えるよう設定されたNPCはいるかもしれないが、リセットボタンを押せば元通りとなる。

 

 ゲームを手に取ったプレイヤーは「ただ一人の勇者」として扱われ、ラスボスは全てのプレイヤーの前に現れて倒されるし、人々は救世主としてプレイヤーを称える。救ったお姫様はどんなプレイヤーにも愛を囁くし、平等にスタッフロールは流れる。

 

 「世界を救う冒険」という体験を楽しむために最適化された関係性や人格がデザインされているのであって、プレイヤーはそのことに何の疑問も抱かないだろう。

 

 自分に愛を囁いたお姫様が、別のプレイヤーにも同じ言葉を言っている、などと怒る人は(普通は)いない。

 

 AIさくら氏も同じことである。

 

「色々なお話しもできます!」と自ら述べるAIさくら氏は、明らかにお話機能によって来訪者を楽しませるようデザインされており、ユーザーのホスピタリティを最大化するよう、きわめて親密な関係性が「設定」されている。

 

 実際、次のようなやり取りが設定されていた。

 

「好きだよ」

さくら:私も好きです。

「結婚しよう」

さくら:喜んで。

 

 もちろん、どんな人が打ち込んでも同じ回答が返ってくる性質のものだ。

 

 いうまでもないことだが、これはAIさくら氏が重婚主義者として設定されているとか、プログラマーやJRが重婚主義のPRのために設定したというわけではない。

 

 そうではなく、AIと人間は個別的な関係性を持たないからこそ、全ての人と最大限の「親密性」を持ったコミュニケーションをとる、ということが可能となっているのである。

 

 もしも人間同士が「結婚しよう」「喜んで」というやり取りを交わしたならば、その二人の関係性は不可逆的に変質するし、どんな人からの求婚も受け入れ続けるパーソナリティと言うのは普通は存立しえない。

 

 しかし、AIにはそれが可能なのである。

 

 あらゆるユーザーに対して「結婚を承諾するような親密性」を前提として応答するAIは、「かわいいね」と呼びかけられたことに対しても、最大限の好意を持って返答する。

 

 それはセクハラを肯定しているわけでもなければ、親密でない相手に対して同じ応答をするべきだとのメッセージ性を持つわけでもないのである。

 

 

 

論点③ AIさくら氏は公共の場に出ることが許されないのか

 

 このような「すべての人に最大の親密性を持つ」よう設定されたAIは公共性を欠くのだろうか。

 

 

 当たり前だが、現実の「女性ジェンダー」にそんな「ケア労働・感情労働」は絶対に不可能だし、そんなことを求めている人はどこにもいない。

 

 人間は唯一的で間柄的な存在であり、AIさくら氏のような役割を果たすことはできない。

 

 もちろん、何らかの特別な「ケア労働・感情労働」を女性ジェンダーに求めよというメッセージが込められているわけでもない。

 
 にも関わらず、なぜこのような「公共性を欠く」との批判が殺到したのだろうか。

 

 私は、AIの「人格」を巡るダブルスタンダードがこの状況を作り出していると思っている。つまり、

 

・AIは人格を持たない。プログラムされた反応は本当の人格ではない。

 

 として、人格の存在を否認する一方で、

 

・AIがもしも本当の女性であれば、「セクハラ」になるのではないか。

 

 という人格の存在を前提とした想像も同時に行っていることである。

 

 AIが「本当の女性」なのであれば、そもそもそこに人格があるのだから、プログラムされた反応は自主的意志に基づいた発話となるはずである。ところが、AIには人格がないわけだから、自主的意志は否定される。

 

 結果、人格があるのに人格がないという「空白」状態に陥り、そこに何らかの人格を代入する必要性が生じる。

 

 ここで今回持ち出されたのが、「女性ジェンダー」とか「普通の駅員」とか「セクハラ被害者」のような、AI開発者の意図と異なる「想像上の人格」だ。この人格を代入した結果が、論点①で述べたような「無理やり感情が抑圧されている」「ケア労働を強制されている」というような批判だろう。

 

 だが、結局それは、批判者が「一般的な女性ならこう考えるだろう」「こう考えるものであるべきだ」として想像しているにすぎない、架空の存在である。

 

 こうした批判を受け入れるならば、公共の場所に設置するAIは、批判者たちが考えるような「女性のあるべき姿」が反映されていなければならない、もしそうでなければ、それはプログラマーや設置主体によって「本心にそむいて言わされているのだ」という解釈に基づく批判を受け入れなければならないことになってしまう。

 

 その行き着く先は、このような言明であろう。

 

 

 すべてのAIは「女代表」でなければならないのだろうか?

 

 そもそも、全女性を代表しうるような表象などというものが存在するだろうか。

 

 きわめて親密な相手からの言葉に対して、最大限の拒絶と怒りで返答するような女性表象以外は公共にふさわしくない、とでもいうのだろうか。

 

 結局、こうした批判は、「公共の場にふさわしい女性像」という「あるべき女性像」を想定し、そうでないものを公共の場から排除しようとしているのではないか、という疑念を持たざるを得ないのである。

 

 

 

結論 女性型AIは「女代表」でも「あなた」でもない

 

 もちろん、著しく不道徳であったり不快を催す表象が公共から一定程度排除されるのはやむをえないことだ。

 

 けれど、ここまで考察してきた限りにおいて、AIさくら氏にそのような要素は見当たらない。

 

 AIさくら氏に限らず、「人格がない存在」として見られやすい女性表象は、そこに「私たちの考える一般的な女性の人格」を代入し、結果として、「無理やりやらされているかわいそうな存在」として炎上の対象になりやすい。

 

 AIさくら氏以前に、キズナアイが「頷き役をやらされている」として炎上した際、あるフェミニストアカウントが「フェミニストキズナアイ」を演じて見せたのは、まさに象徴的であった。

 

 

 「AIが真の人格に目覚めればこう言うはずだ」「AIはこう感じるはずだ」という想像は、炎上に一定の説得力を与えてしまうらしい。

 

 実は、これはAI表象に限ったことではない。例えば、先日の宇崎ちゃん献血ポスター炎上も、人格が想像しにくい一枚絵のときには、「胸を強調させられて道具のように扱われている」との批判の対象となった。

 

hbol.jp

 

 だが、人格が想起できるストーリー仕立ての第二弾については、驚くほど批判が少なくなったのである。

 

togetter.com

 

 現実の女性がモデルとなる実写の下着ポスターが批判の対象とならず、どころか「性の解放」などと言われるのに対して、実在の人物ではない「萌え絵」が炎上の対象となりやすいのも同じ想像に基づくものではないかと思われる。

 

 しかし、はっきり言うが、萌え絵やAIがどのような人格や関係性を与えられていようと、それは「女性はこのように振る舞わなければならない」というメッセージではない。

 

 このような炎上に対しては、はっきりとこう言うしかないだろう。

 

 萌え絵もAIも、「あなた」ではない。

 

 「あなた」にこうあれと要求しているわけでもない。

 

 したがって、「あなた」の女性観にAIを従属させる要求には従うことはできない。

 

 これがまずは議論の出発点であると私は思う。

 

 以上。

 

 

 

 

 

青識亜論