Anti-Virus Comparative - File Detection Test - September 2012

Anti-Virus Comparative -
File Detection Test - September 2012

 

Mehrere Produkte nutzen Cloud-Technologien, die eine aktive Internet-Verbindung benötigen. Unsere Tests werden unter Verwendung eine aktive Internetverbindung. Benutzer sollten sich bewusst sein, dass die Detektion Preise können in einigen Fällen drastisch niedriger sein, wenn der Scan durchgeführt wird, während offline (oder wenn die Wolke ist aus verschiedenen Gründen nicht erreichbar). Die Wolke sollte als zusätzlicher Nutzen / Funktion Erkennungsrate zu erhöhen (sowie Reaktionszeiten und Fehlalarm-Unterdrückung) und nicht als vollwertiger Ersatz für lokale offline Erkennungen berücksichtigt werden. Anbieter sollten sicherstellen, dass die Nutzer im Falle werden gewarnt, dass die Anbindung an die Cloud verloren geht z. B. während eines Scans können die erheblichen Einfluss auf das gewährte Schutz und machen zB ein eingeleiteter Scan nutzlos.
Der benutzte Test-Set wurde consulting Telemetriedaten Versuch, verbreitet Proben aus den letzten Wochen / Monaten die / schlugen Anwender aus dem Bereich gehören gebaut. Wir wendeten eine Clustering-Verfahren ähnliche Dateien (eine Probe - die häufigste ein - pro Variante) zu klassifizieren. Dies ermöglicht es uns, vorherrschende ähnlichen Proben auswerten und die Verringerung der Größe des Satzes ohne Einführung Bias. Daher wird jeder verpassen soll ein verpasst group / Variante Dateien darstellen. Als wir noch jünger Malware-Samples und sogar häufiger verwendeten Proben als bisher, die Größe der Test-Set noch kleiner ist (und sollte leichter zu entdecken / von AV-Produkten erkannt zu werden).
Wie üblich, sind alle Testergebnisse wurden einem Peer-geprüft vor der Veröffentlichung. Wir berücksichtigen auch Gegenkontrollen beispielsweise Prüfen Cloud-Konnektivität von verschiedenen IPs, Dienstleister, Ländern, mit verschiedenen Produkt-Lizenzen, wechselnde Testumgebung und Variablen, Prüfung über einen Zeitraum von Zeit, etc. Darüber hinaus haben wir manchmal bieten zufällige Mengen von Proben an andere vertrauenswürdige unabhängige Labors, sie lassen überprüfen, ob das Produkt verhält sich, und wenn sie die gleichen Ergebnisse, wie wir zu tun bekommen.

Die Malware-Erkennung Preise werden von den Testern nach einem Blick auf die Cluster zu bauen mit dem hierarchischen Clustering-Verfahren zusammengefasst. Durch die Verwendung von Clustern, gibt es keine festen Schwellen zu erreichen, da die Schwellenwerte auf der Grundlage der Ergebnisse ändern. Die Tester können die Cluster rationell gruppieren und sich nicht allein auf die Cluster verlassen, um zu vermeiden, dass, wenn z. B. Alle Produkte würden in Zukunft Gäste schlecht, erhalten sie nicht hohe Platzierungen sowieso. Da wir auch reduzierte die sauberen Satz, aktualisiert haben wir auch die Vergabe-System, da einige Produkte zu viel zu Fehlalarmen auch in der reduzierten sauber Set zu bekommen verwalten. Wir sind immer noch die Beurteilung, ob Cluster gelten auch für die FP Bereiche oder um im nächsten Jahr die Schwelle für die "Many" um 11 statt 16.

Anti-Virus Comparative - Detection Rate Clusters/Groups


Auch wenn wir verschiedene Tests liefern und zeigen unterschiedliche Aspekte der Anti-Virus-Software, Anwender sollten die Software selbst zu bewerten und ihre eigene Meinung über sie. Testdaten oder Bewertungen nur Leitlinien zu einigen Aspekten, dass die Nutzer nicht selbst beurteilen können. Wir schlagen vor und ermutigen die Leser auch die Forschung anderen unabhängigen Testergebnisse von verschiedenen bekannten und etablierten, unabhängigen Prüforganisationen zur Verfügung gestellt, um einen besseren Überblick über die Erkennung und Schutz-Funktionen der verschiedenen Produkte über verschiedene Testszenarien und verschiedene Test-Sets zu bekommen

Ergebnisse

Bitte beachten Sie auch die Fehlalarmrate bei der Betrachtung der folgenden Datei-Erkennung RATES2.
Insgesamt Erkennungsraten (Cluster in Gruppen):

1. G DATA 99,9%
2. AVIRA 99,8%
3. Panda, Trend Micro
99,6%
4. F-Secure 99,3%
5. Kaspersky, BitDefender, BullGuard, Fortinet, eScan
99,2%
6. McAfee 98,8%
7. Sophos 98,7%
8. avast 98,6%
9. GFI VIPRE 98,5%
10. AVG 98,0%
11. ESET 97,4%
12. AhnLab 95,6%
13. Microsoft 94,9%
14. PC Tools 94,4%
15. Webroot unter 80%

Bei dem Test wurden rund 240.000 der jüngsten Proben aus den letzten Wochen / Monaten verwendet.

Auszeichnung Ebenen in diesem Test erreicht
AV-Comparatives ist ein Ranking ausgezeichnet. Wie dieser Bericht enthält auch die Roh-Erkennungsraten und nicht nur die Preise, erfahrene Anwender, die zB nicht über Fehlalarme kümmern können auf dieser Kerbe allein verlassen, wenn sie wollen.

zurück

Antivirus Software Update Internet Security Software Update News
Avira G Data Kaspersky AVG Symantec McAfee BitDefender Panda