ChatGPTは殺人マルウェアを書き始めるか?
ChatGPTの出力が見事なように、今後チャットボットが洗練されたマルウェアを書き出すことも見越すべきなのでしょうか?
ChatGPTの出力が見事なように、今後チャットボットが洗練されたマルウェアを書き出すことも見越すべきなのでしょうか?
まずはじめにお伝えしますが、この記事はChatGPTが書いたものではありません ― 私が書きました。また、タイトルにある質問に答えるよう依頼したわけでもありません ― 私は答えます。しかし、それはChatGPTが答えるかもしれませんね。幸いなことに、文法の間違いがいくつか残っていることが、私がロボットでないことを証明しています。でも、それもChatGPTが本物と思わせるためにやっていることかもしれませんね。
この現在のロボットのヒップスター技術は、宿題の答え、研究論文、法的回答、医療診断、そしてそのほかの多くのものを、あたかも人間による仕業であるかのように扱って「匂いテスト」をパスしたものを作り出すのに十分な素晴らしい自動応答装置です。しかし、私たちが毎日目にし、処理している何十万ものマルウェアサンプルに意味のある付加価値を与えることができるのでしょうか?それとも、偽物を簡単に見つけることができるのでしょうか?
ブログ検索エンジンであるTechnoratiが長年切望してきたマシン対マシンの対決において、ChatGPTは、相手のマシンを妨害する可能性のある真剣勝負の相手として、少し「良すぎる」ように見えます。攻撃側、防御側ともに最新の機械学習(ML)モデルを使用しているため、こうならざるを得なかったのです。
ただし、優れたマルウェア対策を作るには、ロボット対ロボットだけではありません。人間の介入が常に必要であり、私たちESETは何年も前に人間をきちんと介入させることを決定しています。MLしか使用していない自社製品を「AI」と言ってお茶を濁しながら、マーケティング競争に参入してきた、ML専用のプロバイダーは悔しがっていることでしょう。
MLモデルは、粗いトリアージフロントエンドからより複雑な分析まで使用されていますが、大きな赤い「マルウェアを殺す」ボタンにはなりません。マルウェアはそれほど単純ではないのです。
しかし、念のため、ESETの機械学習専門家たちに声をかけ、尋ねてみました。
Q. ChatGPTで生成されたマルウェアはどの程度のものになるのでしょうか、また、そのようなことは可能なのでしょうか?
A. ChatGPTはコード提案、コード例やスニペットの生成、デバッグ、コードの最適化、ドキュメントの自動化はかなり得意としていますが、「完全なAI生成マルウェア」にはほど遠いというところです。
Q. より高度な機能についてはどうですか?
A. 難読化がどの程度得意なのかはわかりません。Pythonのようなスクリプト言語に関する例もあります。ただ、IDA Proに接続したディスアセンブルされたコードの意味を「リバース」させる ChatGPTを見ましたが、これは面白いですね。全体として、プログラマーを支援する便利なツールでしょうし、フル機能のマルウェアを作るための第一歩なのかもしれませんが、まだまだですね。
Q. 今の実力は?
A. ChatGPTはLarge Language Modelであることを考えると非常に印象的であり、その能力はそのようなモデルの作成者をも驚かせるものです。しかし、現状では、非常に浅く、間違いが多く、幻覚に近い答え(=捏造された答え)を作り、真面目な話にはあまり信頼性がありません。
しかし、この水たまりに足を突っ込む技術者の群れから判断すると、急速に浸透しているようです。
Q. 今できること ― このプラットフォームが簡単に達成できることは何でしょうか?
A. 今のところ、悪意を持って利用される可能性が高いのは以下3つの分野だと見ています。
もしこれらは未来のことかもしれないと思ったとしても、それに賭けるのはやめた方がいいでしょう。一気にすべて実現されることはありませんが、しかし、犯罪者の腕は格段に上がっています。さて、ディフェンス側は、この挑戦にどのように受けて立つのでしょうか?