Glossar

Inhalts-Filterung

Was ist Content-Filterung?

Content-Filterung bezeichnet die Nutzung eines Programms zum Screenen und/oder Unterbinden von Zugriff auf als unzulässig betrachtete Webseiten oder E-Mails. Content-Filterung wird von Unternehmen als Teil ihrer Firewalls eingesetzt, doch auch Privatnutzer setzen es ein. Bei der Content-Filterung gibt man Inhaltsmuster an, wie Textzeichenfolgen oder Objekte in Bildern, die bei Übereinstimmung auf unerwünschten Inhalt hinweisen, der herausgefiltert werden soll. Ein Content-Filter blockiert dann den Zugriff auf diesen Inhalt.

Oft gehören Content-Filter zu Internet-Firewalls, sie können aber auch in Form von Hardware oder Software implementiert werden. Bei einer solchen Verwendung dient Content-Filterung einem Sicherheitszweck. Es wird aber auch genauso von Unternehmen eingesetzt, um bei der Verwendung von Informationssystemen Unternehmensrichtlinien umzusetzen. So ist es beispielsweise üblich, Websites von sozialen Netzwerken zu filtern, die nichts mit der Arbeit zu tun haben.

Warum Content-Filterung wichtig ist

Anstößige, unangemessene oder verbotene Inhalte bergen ein Risiko für Unternehmen. Einige Beispiele:

  • Wenn Unternehmen pornografische Inhalte am Arbeitsplatz erlauben, kann das Klagen wegen sexueller Belästigung nach sich ziehen oder auch auf andere Weise eine äußerst unangenehme und abwertende Arbeitsumgebung schaffen.
  • Spam-Websites können dazu führen, dass Malware oder andere schädliche Software auf Arbeitscomputer gelangt.
  • Hass-Websites oder andere Sites mit gewaltverherrlichenden Inhalten können die Sicherheit von Mitarbeitern gefährden und sich auch insgesamt negativ auf das Unternehmen auswirken.
  • Social-Networking-Seiten können die Produktivität senken und Mitarbeiter von ihren Routineaufgaben ablenken.

Mithilfe von Content-Filterung lassen sich diese Risiken mindern. Denn damit wird der Zugriff auf derartige Inhalte am Arbeitsplatz erschwert und das Unternehmen zeigt, dass es unangemessene, verbotene oder anstößige Inhalte generell nicht toleriert.

Damit Content-Filterung wirksam ist, muss es in allen Inhaltskanälen bereitgestellt werden. Das sind vornehmlich Folgende:

  • Web: Es werden Websites oder Seiten sowie Lesezeichen und anderer Web-Traffic überprüft.
  • E-Mail: E-Mails werden auf eine Vielzahl von Spam, auf Malware und andere unerwünschte oder schädliche Inhalte überprüft. In der Regel wird dabei die Betreffzeile der E-Mails gescannt, die über das Filtersystem weitergeleitet werden. Bei Empfangen einer Nachricht, die die entsprechenden Kriterien erfüllt, wird die Nachricht im Spam-Ordner des Empfängers abgelegt. Manchmal werden solche E-Mails auch als unzustellbar an den Absender zurückgesendet.
  • Ausführbare Dateien: Es werden ausführbare Dateien überprüft, die möglicherweise ohne Warnung schädliche Software installieren.

Häufig geht es bei diesen Maßnahmen darum, den Zugriff auf Inhalte zu unterbinden, die Benutzer oder Admins eventuell als anstößig erachten. Einige der Einschränkungen lassen sich auf allen Ebenen anwenden: Eine nationale Regierung kann eine landesweite Einführung anstreben, ein ISP die Filterung auf seine Kunden anwenden. Dasselbe kann ein Arbeitgeber bei seinem Personal tun oder eine Schule bei ihren Schülern. Bei der E-Mail-Filterung gibt es keine Einschränkungen und häufig ist dies ein wichtiger Schritt dahin, allen Benutzern sichere Webzugriffe zu bieten.

Content-Filterung - weiterführende Ressourcen

Zugehörige Begriffe

Weiterführende Ressourcen

Wie Barracuda Sie unterstützen kann

Das Barracuda Web Security Gateway bietet flexible Kontrollmöglichkeiten zur zielgerichteten Filterung von Online-Aktivitäten. Damit können Admins ganz einfach gefährliches Verhalten online wie Pornografie, Gewalt oder sogar Hacking blockieren.

Haben Sie weitere Fragen zu Content-Filterung? Wir freuen uns auf Ihre Nachricht!