Herzlich willkommen bei PC-Sicherheit.net
Du betrachtest derzeit das Forum als Gast und hast damit nur eingeschränkten Zugriff. Um alle Bereiche zusehen und alle Forenfunktionen nutzen zu können ist eine kostenlose Registrierung erforderlich.

Wir würden uns freuen Dich bald bei uns als Mitglied begrüßen zu dürfen.
Viele Grüße vom PC-Sicherheit.net Team

AV Comparatives Real-World Protektion Test

Hier findet ihr Testergebnisse über Sicherheitssoftware.
SLE
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#271

Beitrag von SLE »

olli hat geschrieben: Naja, ein Unterschied zwischen 99,9% und 98,6% kann schon zwischen Testsieg und letzen Platz entscheiden... :wink:
Aber hier geht es ja nicht um die Plätze. Rangplätze sind Spielerei, da sollte man nicht draufschauen. Hier geht es ja nicht um einen sportlichen Wettkampf, sondern um die Realitätsrelevanz künstlicher Benchmarks (=Tests)

Und klar liegen bei der hohen Dateimenge zwischen 99,9 und 98,6 auch einige 1000 Dateien.
ABER: Und nimmt man das Ergebnis ernst, erkennen fast alle 9,8-9,9 von 10 verbreiteten Schädlingen.

Und somit kommen sie bei dem verbreiteten Sachen, also denen die Nutzer betreffen hinterher. Wenn man nicht für jedes Datei, die ich so z.B. auf Chinaseite XY finden kann eine Erkennung hat macht das nichts, weil sowas reelll niemanden bedroht. Somit haben Tests ohne Prävalenzdaten ja keine Praxisrelevanz. Und v.a. durch die Cloudsysteme erkennen die Hersteller ganz gut relevante Sachen und können priorisieren.

Zu deinem Dilemma: Das schließt sich beides somit nicht aus. In der Cloud sind in aller Regel auch nur mehr oder weniger Signaturen / Signaturmuster (von den reinen Reputationslösungen abgesehen). Oder anders: welche der führenden Lösungen kommt heute noch ohne Cloud? Klar haben die größten Anbieter auch die größten Cloudsysteme, u.a. durch die Nutzerbasis aber auch durch Einkäufe und Austausch mit anderen Dienstleistern.
noelis
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#272

Beitrag von noelis »

Klar die Tests von AV-C konzentrieren sich auf prävalente Malware, sprich das was wirklich im Umlauf ist und deshalb eine Bedrohung darstellt
Mit dieser Formulierung habe ich persönlich immer Schwierigkeiten.....Sebastian.
Wie kann man feststellen oder .........sagen wir bestimmen, was wirklich im Umlauf ist, wenn unzählige neue Malware am Tag das Licht des Internet's erblickt.... :?:
Alleine aus diesem Grund zweifle ich immer an der Aussagekraft dieser Test's mit bereits bekannter (sonst würde es ja nicht funktionieren) Malware. Auch deshalb ist mir ein verhaltensbasierender Schutz genauso wichtig wie das AV selber..
SLE
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#273

Beitrag von SLE »

noelis hat geschrieben: Mit dieser Formulierung habe ich persönlich immer Schwierigkeiten.....Sebastian.
Wie kann man feststellen oder .........sagen wir bestimmen, was wirklich im Umlauf ist, wenn unzählige neue Malware am Tag das Licht des Internet's erblickt.... :?:
Wir leben in einer digitalen Welt in der Checksummen ein blühendes Geschäftsfeld sind - keineswegs nur in der Securitybranche. ;) Z.B. Banken, Rechteinhaber etc. sind da auch massiv vertreten.

Unabhängig ob Malware oder nicht, kann man so für jede Datei den Verbreitungsgrad herausbekommen, dies nach Region aufschlüsseln, Ursprünge von Bedrohungen entdecken etc.

Kaspersky z.B. liefert da eine interaktive Spielerei, die zeigt was möglich ist. Cybermap
Norton mit seinen Insight Erkennungen liefert auf ähnlicher Basis eine brutale Reputationseinordnung: Kennen wir nicht = schädlich. Avast kopiert das in letzter Zeit etwas.

AV-C arbeitet da mit einigen Anbietern solcher Daten zusammen, nimmt also nicht nur Prävalenzdaten eines Anbieters.
Das ist meiner Meinung nach ein guter Kompromiss, denn verschiedene Anbieter haben verschiedene Prävalenzdaten. (Manch einer erinnert sich vllt. an die Reanalyse des FileDetection Tests letztes Jahr nur mit den M$ Daten: Da war (gepaart mit Berechnugnsschummelei) MSE dann extrem gut)

Das die Security-Anbieter ähnliches machen erklärt, dass sich bei solchen prävalenzbasierten Tests (AV-C, AV-Test) die Unterschiede im hohen Prozentbereich abspielen. Das wird aber von Andreas Clementi (IBK) auch offen gesagt.
Aber das ist der Preis für die Praxisrelevanz.

Auf der anderen Seite wäre es auch leicht möglich einfach Unmengen an Malware zu crawlen ohne Rücksicht, ob diese je im Umlauf war, oder nur auf einer Hobbyseite schlummert. Hiermit kann man dann auch AVs testen, aber das Ergebnis hat dann keine wirkliche Praxisrelevanz sondern ist nur "interessant". Ein Beispiel ist CRDF. Beliebige Files. Wenn man hier in den Tagen blättert sieht man eine deutlichere Streuung und nie die bekannten 99% Ergebnisse.

In aller Regel ist es dennoch so, dass schädliche Dateien bei Securityanbietern auf den Schirm kommen bevor ein Endnutzer damit in Berührung kommt.

Wenn nicht: Dann ist was proaktives die einzige Erkennungschance. Gute Heuristiken, verhaltensbasierte Mechanismen, Reputation... Aber Verhinderung ist besser als Erkennung: Virtualisierung, Sandboxen.
noelis
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#274

Beitrag von noelis »

Dann ist mir jetzt klar geworden, warum bei den Test's der verschiedenen Testinstitute auch unterschiedliche Testsieger sind. Es werden ganz einfach nicht die haargleichen Packs sein, die den Unterschied machen. Was wiederum für mich bedeutet, dass man den Ranglisten nicht zuviel Bedeutung beimessen sollte.
SLE
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#275

Beitrag von SLE »

noelis hat geschrieben:Dann ist mir jetzt klar geworden, warum bei den Test's der verschiedenen Testinstitute auch unterschiedliche Testsieger sind. Es werden ganz einfach nicht die haargleichen Packs sein, die den Unterschied machen. Was wiederum für mich bedeutet, dass man den Ranglisten nicht zuviel Bedeutung beimessen sollte.
Richtig. Nicht nur das, das verschiedene Malware verwendet wird ist das eine, aber ich kenne kaum zwei Tests die daneben von der Methodologie wirklich vergleichbar sind. Es sind alles Annäherungen. Der WPDT ist vllt. am realitätsnähesten, aber v.a. durch einen aggressiven Webfilter zum Teil austricksbar.
Benutzeravatar
Astor27
Moderator
Moderator
Beiträge: 25180
Registriert: So 5. Feb 2012, 15:21
Betriebssystem: Win10-64bit,Win11
Browser: Firefox124.0.1/Brave
Firewall: KIS21
Virenscanner: KIS21
Hat sich bedankt: 9386 Mal
Danksagung erhalten: 8596 Mal

Re: AV Comparatives Real-World Protektion Test

#276

Beitrag von Astor27 »

SLE hat geschrieben:
noelis hat geschrieben:Dann ist mir jetzt klar geworden, warum bei den Test's der verschiedenen Testinstitute auch unterschiedliche Testsieger sind. Es werden ganz einfach nicht die haargleichen Packs sein, die den Unterschied machen. Was wiederum für mich bedeutet, dass man den Ranglisten nicht zuviel Bedeutung beimessen sollte.
Richtig. Nicht nur das, das verschiedene Malware verwendet wird ist das eine, aber ich kenne kaum zwei Tests die daneben von der Methodologie wirklich vergleichbar sind. Es sind alles Annäherungen. Der WPDT ist vllt. am realitätsnähesten, aber v.a. durch einen aggressiven Webfilter zum Teil austricksbar.
Hallo
Das heißt also im Klartext das viele Test gar nicht realitätsnah nah ausgeführt wurden wenn einer so testet der andere wieder so . Das heißt viele verarschen den User mit ihren Test wenn sie sich zb mit der Materie so gut auskennen wie du .
mfg
Ich empfehle den download und update immer von der Original Seite der Software.
Benutzeravatar
olli
Mitglied
Mitglied
Beiträge: 459
Registriert: So 9. Mai 2010, 17:03
Betriebssystem: Win 8.1 Pro
Firewall: Router/ Win 10
Virenscanner: BD AV+/Avast/KIS
Wohnort: Dortmund
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#277

Beitrag von olli »

Ich weiß jetzt immer noch nicht, ist GData mit doppelten Signaturen und einem Verhaltensblocker oder BitDefender mit riesiger Cloud (Braun) und starkem Webfilter das für den Normalo effektiverer AV ist...
noelis
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#278

Beitrag von noelis »

@Astor
Das heißt nur, dass nicht jedem Testinstitut die gleichen Quellen zur Verfügung stehen..... :wink:
Benutzeravatar
Astor27
Moderator
Moderator
Beiträge: 25180
Registriert: So 5. Feb 2012, 15:21
Betriebssystem: Win10-64bit,Win11
Browser: Firefox124.0.1/Brave
Firewall: KIS21
Virenscanner: KIS21
Hat sich bedankt: 9386 Mal
Danksagung erhalten: 8596 Mal

Re: AV Comparatives Real-World Protektion Test

#279

Beitrag von Astor27 »

noelis hat geschrieben:@Astor
Das heißt nur, dass nicht jedem Testinstitut die gleichen Quellen zur Verfügung stehen..... :wink:
Hallo
Die frage ist dann warum nicht. Alle wollen doch auf dem Gebiet das gleiche wenn auch als Konkurrent .


mfg
Ich empfehle den download und update immer von der Original Seite der Software.
noelis
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: AV Comparatives Real-World Protektion Test

#280

Beitrag von noelis »

Wenn alle die gleiche Malware verwenden würden und dann noch zur gleichen Zeit, dann wären alle Ergebnisse (theoretisch) gleich. Wäre dann ungefähr so wie wenn 3 Tageszeitungen den gleichen Text und die gleichen Bilder verwenden würden, hast du eine gelesen, dann kennst du auch die anderen zwei..... :-)
Antworten

Zurück zu „Aktuelle Testergebnisse“