生成AI「Grok」による性的画像の捏造が深刻化
イーロン・マスク氏率いる対話型AI「Grok」を悪用し、実在する知人の画像を性的なものへと加工する被害が急増しています。高校の同級生や知人女性の写真を勝手にビキニ姿へ改変し、その罪悪感や発覚への恐怖から「自首すべきか」という、弁護士への相談が相次いでいるといいます。
技術の進歩がもたらした「悪意ある遊び」は、今や取り返しのつかない人権侵害へと発展しています。
今回の騒動の背景には、Grokの画像生成における制限の緩さがあります。これまで大手テック企業のAIは、倫理的観点から実在の人物や性的な画像の生成を厳しく制限してきました。しかし、制限の強化をされてきてはいますが、自由な表現を標榜するマスク氏の方針によって、Grokは極めて写実的なフェイク画像を容易に作り出せる状況にあります。
相談を寄せた若者の中には「マスク氏も自身のビキニ姿の画像を投稿しているから許されると思った」という主観的な解釈を口にする者もいるようです。しかし、現実は甘くありません。
SNS上では、この無軌道なAI利用に対して厳しい批判と、被害者への同情が集まっています。
『同級生の写真を勝手に加工するなんて、遊びでは済まされない。一生のトラウマを植え付ける行為だと自覚すべき』
『AIの進化は素晴らしいけれど、それを使う側の倫理観が追いついていない。規制が遅すぎるのではないか』
『「みんなやってるから」という言い訳は、法廷では通用しない。自分の人生を棒に振るリスクを考えた方がいい』
今回の問題は単なる「悪ふざけ」では片付けられません。一度生成され、インターネットの海に放流された画像は、完全に削除することが不可能な「デジタル刺青」となります。被害に遭った女性たちが、自分の知らない場所で裸同然の姿を晒されているという恐怖は、想像を絶するものがあります。
技術は常に中立ですが、それを使う人間に明確な悪意、あるいは想像力の欠如がある場合、それは鋭利な凶器へと変貌します。
イーロン・マスク氏の掲げる「表現の自由」が、個人の尊厳を蹂躙するための盾に使われてはなりません。














