新しい Windows マルウェア ハンターが AV-TEST によってテストされましたが、非常にひどいものでした
前回の記事では、Microsoft Defender、McAfee、Norton などのマルウェア対策製品がパフォーマンスに与える影響について説明しました。システムにあるものと、それらが相互にどのようにランク付けされるか。ここでは、セキュリティ アプリが脅威から防御できない場合、システムの動作に軽度から中度の影響が及んでも許されなくなるため、セキュリティ アプリがもたらす保護機能に注目します。
AV-Comparatives と AV-TEST は最新のレポートで調査結果を発表しており、それらはそれぞれ Windows 10 と Windows 11 上で実行されました。前者は、Real-World Protection テストと Malware Protection テストという 2 つの非常に包括的な記事を別々に公開しました。
AV-Comparatives では、Real-World Protection Test の仕組みについて説明しています。
当社の現実世界保護テストは、ユーザーが毎日経験する現実世界の状況をシミュレートすることを目的としています。ユーザーの操作が表示される場合は、「許可」または同等のものを選択します。いずれにしても製品がシステムを保護する場合、ユーザーに決定を求められたときにプログラムの実行を許可しても、マルウェアはブロックされたものとしてカウントされます。システムが侵害された場合、それはユーザー依存であると見なされます。
マルウェア保護テストの内容は次のとおりです。
マルウェア保護テストは、実行前、実行中、実行後に、悪意のあるファイルによる感染からシステムを保護するセキュリティ プログラムの能力を評価します。
テストされた各製品に使用された方法は次のとおりです。実行前に、すべてのテスト サンプルはセキュリティ プログラムによるオンアクセス スキャンとオンデマンド スキャンの対象となり、それぞれがオフラインとオンラインの両方で実行されます。
これらのスキャンで検出されなかったサンプルは、インターネット/クラウド アクセスが利用可能なテスト システム上で実行されます。行動検出機能が有効になります。製品が一定期間内に特定のマルウェア サンプルによって行われたすべての変更を防止または元に戻せない場合、そのテスト ケースはミスとみなされます。マルウェア サンプルの実行を許可するかどうかをユーザーが決定するように求められ、ユーザーの決定による最悪のシステム変更が観察された場合、テスト ケースは「ユーザー依存」と評価されます。
実世界テストは合計 512 のテスト ケースで構成されていますが、マルウェア保護テストには 10,000 を超える、正確には 10,007 のテスト ケースがあります。以下の画像は後者のものです。
Microsoft Defender は、オフライン カテゴリでは依然として平凡です。これは以前の評価でも指摘されていますが、オンラインの検出率と保護率ではそれを補って余りあるものです。 Defender のほかに、McAfee もオフライン検出テストではあまり印象に残っておらず、Kaspersky がかろうじてリードしていました。
ランキングの中位あたりに位置する Defender の場合、誤報が 5 件ありました。最も高い誤報は F-Secure によって提供されました。より人気のある製品の中でも、マカフィーとノートンはそれぞれ 10 件と 12 件の誤警報を発生し、最悪の製品の 1 つでした。
AV-TEST に移ると、テストされた製品のほとんどは互いに同様に動作します。ただし、その中には大きな外れ値があります。
ベトナムに本拠を置くウイルス対策製品である Bkav は、AV-TEST の評価にかなり新しく参加しましたが、あまり良い成果を上げていないことは明らかです。 Bkav インターネット セキュリティ AI は、保護カテゴリで 6.0 ポイント中 3.0 ポイント、使いやすさのカテゴリで 6.0 ポイント中 3.5 を獲得しており、AV-TEST でスコアが 4.5 を下回ることはほとんどないため、史上最悪のパフォーマンスの 1 つとなっています。
不思議に思っている方のために付け加えておきますが、ユーザビリティ スコアは、ウイルス対策製品によって引き起こされる不便さや煩わしさを評価することを目的としています。したがって、誤報などもこのカテゴリにカウントされます。
Bkav のスコアの内訳を見れば、その理由は簡単に理解できます。 Bkav は明らかに、ゼロデイ マルウェアへの対処に非常に苦労しており、スコアはわずか 54.5% で、これは業界平均の 99.2% のほぼ半分です。さらに悪いことに、今月のスコアは 9 月に比べて低いです。
一方、ユーザビリティのカテゴリでは、業界平均のわずか 1 件に対し、258 件の誤検知が測定されました。ただし、このスコアは前月の 732 件よりもはるかに優れており、開発者は正しい道を歩んでいるように見えることに留意してください。
コメントを残す