Posted:
Ihr surft gerade im Internet und lest die aktuellen Neuigkeiten zu eurer Lieblingsband. Auf einmal seht ihr einen roten Warnbildschirm "Malware auf nachfolgender Website". Diese Warnmeldungen sind nichts Neues. Seit 2006 werden sie durch Google Safe Browsing angezeigt, sobald ihr zu einer unsicheren Website navigiert. Dank dieser Warnmeldungen werdet ihr vor Schäden durch unsichere Websites, z. B. aufgrund von Malware oder Phishingangriffen, geschützt. Bisher war aber nicht immer klar, warum durch eine bestimmte Website eine Warnung ausgelöst wird. Wahrscheinlich möchtet ihr mehr darüber erfahren.

Um Nutzer über diese Warnungen aufzuklären, haben wir im Transparenzbericht den Bereich "Websitestatus" eingeführt. Wenn ihr das nächste Mal eine Safe Browsing-Warnung seht, könnt ihr im Transparenzbericht nach der blockierten Website suchen und findet dann Angaben dazu, warum sie von unseren Systemen gemeldet wurde.

Der neue Bereich "Websitestatus" im Transparenzbericht ersetzt die bisherige Safe Browsing-Diagnoseseite. Die Benutzeroberfläche ist übersichtlicher und Probleme werden verständlicher erläutert. Zudem erfahrt ihr mehr über Websites, die unerwünschte Software hosten. Wir haben diesen Bereich neu in den Transparenzbericht aufgenommen, damit ihr im Bereich "Safe Browsing" an zentraler Stelle alle Informationen zu Safe Browsing und seiner Funktionsweise findet.



Wenn eine eurer Lieblingswebsites als "gefährlich" eingestuft wird, liegt das häufig daran, dass ein Nutzer schädliche Inhalte hochgeladen hat. Es kann sich auch um eine vorübergehende Malware-Infektion handeln. Der Websitestatus wird wieder wie gewohnt angezeigt, sobald der Webmaster die Website in Ordnung gebracht hat. Damit dieser Prozess schneller vonstatten geht, wird der Webmaster von uns automatisch über die Search Console über das Problem informiert. Wenn ihr Google Analytics verwendet, warnen wir euch bei Malware-Befall eurer Website auch dort. Hinweis für Webmaster: Hinweise dazu, wie ihr Malware von euren Websites entfernt, findet ihr in der Hilfe.

Wir arbeiten kontinuierlich daran, unsere Nutzer im Web zu schützen und zu informieren. Überzeugt euch selbst, indem ihr euch den aktualisierten Bereich "Websitestatus" im Transparenzbericht anseht.


Post von
Adrienne Porter Felt, Chrome Security Engineer und Warning Wizard
Emily Schechter, Safe Browsing Program Manager und Menace to Malware
Ke Wang, Safe Browsing Engineer und Developer of Defense

Posted:
In vielen Fällen ist es kein Problem, auf verschiedenen Geräten Inhalte mit geringen Unterschieden darzustellen. So kann es bei der Optimierung der Darstellung für kleinere Displays wie denen von Smartphones erforderlich sein, bestimmte Inhalte wie z. B. Bilder entsprechend zu bearbeiten. Es kann auch empfehlenswert sein, das Menü der Website in einer Navigationsleiste unterzubringen, damit das Surfen auf Mobilgeräten einfacher und effektiver wird. Hier findet ihr die Dokumentation dazu (in Englisch). Bei einer ordnungsgemäßen Umsetzung kann Google diese auf die Nutzer ausgerichteten Änderungen sehr gut nachvollziehen.

Ähnlich sieht es bei rein mobilen Weiterleitungen aus. Es zahlt sich häufig aus, Weiterleitungen für mobile Nutzer einzurichten, um diesen eine bessere mobile Erfahrung zu bieten. So könnt ihr beispielsweise eine Weiterleitung von ihrebeispielurl.de/url1 auf m.ihrebeispielurl.de/url1 festlegen. Die irreführende Weiterleitung mobiler Nutzer an andere Inhalte führt jedoch zu einer negativen Nutzererfahrung und verstößt gegen die Richtlinien für Webmaster von Google.

Es ist für Nutzer ziemlich frustrierend, wenn in den Suchergebnisseiten auf Desktopcomputern und auf Mobilgeräten die gleiche URL erscheint. Wenn ein Nutzer auf seinem Desktopcomputer auf dieses Ergebnis klickt, wird die URL wie gewünscht geöffnet. Tippt er jedoch auf einem Smartphone darauf, wird er weitergeleitet und es wird eine irrelevante URL geladen.

Wer ist für die Implementierung dieser irreführenden Weiterleitungen verantwortlich?

In einigen Fällen setzen Webmaster bewusst irreführende Weiterleitungsregeln für mobile Nutzer ein. In Allgemeinen handelt es sich dabei um einen Verstoß gegen die Richtlinien für Webmaster, bei dem wir eine manuelle Maßnahme ergreifen, falls die Erfahrung der Nutzer von Google dadurch beeinträchtigt wird. Weitere Informationen dazu findet ihr im letzten Abschnitt in diesem Blogpost.
Es gibt allerdings auch Fälle, in denen Websiteinhabern nicht bewusst ist, dass auf Mobilgeräte beschränkte irreführende Weiterleitungen vorhanden sind. Einige Beispiele:
  • Werbeprogramme, die gezielt mobile Nutzer weiterleiten
    Ein für die Einblendung von Werbung und die Monetarisierung von Inhalten installiertes Skript oder Element leitet mobile Nutzer möglicherweise an eine ganz andere Website weiter, ohne dass dem Webmaster dies bewusst ist.
  • Mobile Weiterleitungen infolge eines Hackerangriffs auf die Website
    In manchen Fällen wurde die Website möglicherweise gehackt, was dazu führen kann, dass nur mobile Nutzer an Spam-Domains weitergeleitet werden.

Wie erkenne ich, ob auf meiner Website irreführende mobile Weiterleitungen vorhanden sind?

  1. Überprüft, ob ihr weitergeleitet werdet, wenn ihr auf eurem Smartphone zu eurer Website navigiert.
    Wir empfehlen, die mobile Nutzererfahrung eurer Website zu prüfen. Ruft eure Website dazu auf dem Smartphone über die Google-Suchergebnisse auf. Bei der Problembehebung ist die Mobilgeräte-Emulationsfunktion in Desktopbrowsern sehr hilfreich, da ihr damit viele verschiedene Geräte testen könnt. In Chrome,Firefox oder Safari könnt ihr dies direkt im Browser testen. Achtet bei Safari darauf, dass die Option "Menü 'Entwickler' in der Menüleiste anzeigen" aktiviert ist.
  1. Hört auf die Nutzer.
    Die Nutzer sehen möglicherweise eine ganz andere Version eurer Website als ihr. Nutzerbeschwerden solltet ihr unbedingt ernst nehmen, denn diese helfen euch, über Probleme im Zusammenhang mit der Nutzerfreundlichkeit auf Mobilgeräten informiert zu bleiben.
  1. Überprüft mithilfe der Analysedaten eurer Website das Nutzerverhalten.
    Ihr könnt ungewöhnliche Aktivitäten mobiler Nutzer unter Umständen anhand bestimmter Analysedaten eurer Website erkennen. Ein gutes Indiz ist beispielsweise die durchschnittliche Zeit, die mobile Nutzer auf eurer Website verbringen: Wenn ausschließlich die mobilen Nutzer plötzlich sehr viel weniger Zeit auf eurer Website verbringen als üblich, könnte dies auf ein Problem im Zusammenhang mit mobilen Weiterleitungen hindeuten.

    Um sofort über größere Veränderungen in Bezug auf die Aktivitäten mobiler Nutzer informiert zu werden, könnt ihr z. B. Benachrichtigungen für Google Analytics einrichten. Ihr könnt beispielsweise festlegen, dass ihr benachrichtigt werdet, wenn sich der Wert der durchschnittlichen Zeit, die mobile Nutzer auf eurer Website verbringen, erheblich verringert hat oder die Anzahl der mobilen Nutzer insgesamt stark gesunken ist. Bedenkt jedoch, dass starke Schwankungen bei den Messwerten nicht unbedingt ein deutliches Anzeichen für irreführende mobile Weiterleitungen auf eurer Website sein müssen.

GA alert mobile redirect.png


Ich habe irreführende mobile Weiterleitungen entdeckt, die nicht von mir selbst eingerichtet wurden: Was kann ich tun?

  1. Vergewissert euch, dass eure Website nicht gehackt wurde.
    Ruft dazu das Tool "Sicherheitsprobleme" in der Search Console auf. Falls wir einen Hackerangriff bemerkt haben, findet ihr hier entsprechende Informationen.
    Lest auch unsere weiteren Blogposts zu typischen Symptomen gehackter Websites und den Fallstudien zu gehackten Websites.
  2. Überprüft Skripte und Elemente von Drittanbietern auf eurer Website.
    Falls eure Website nicht gehackt wurde, solltet ihr überprüfen, ob die Weiterleitungen durch Skripte oder Elemente von Drittanbietern verursacht werden. Führt dazu die folgenden Schritte durch:
A. Entfernt die Skripte oder Elemente von Drittanbietern, über die ihr keine Kontrolle habt, nacheinander von den Weiterleitungsseiten.
B. Überprüft nach jedem Entfernen eines Skripts oder Elements auf einem Mobilgerät oder mithilfe der Emulationsfunktion, ob die Weiterleitung noch besteht.
C. Wenn ihr der Ansicht seid, dass ein bestimmtes Skript oder Element für die irreführende Weiterleitung verantwortlich ist, solltet ihr in Betracht ziehen, dieses von eurer Website zu entfernen. Wendet euch dann bezüglich der Problembehebung an den entsprechenden Anbieter.

Letzte Anmerkungen zu irreführenden mobilen Weiterleitungen

Wenn ihr Nutzer auf eine Seite weiterleitet, um ihnen dort einen anderen Inhalt als dem Suchmaschinen-Crawler anzubieten, verstoßt ihr gegen die Richtlinien für Webmaster von Google. Weitere Informationen zu irreführenden Weiterleitungen findet ihr hier. Damit Nutzer hochwertige Suchergebnisse erhalten, kann das Google Search Quality Team für Websites, die gegen die Regeln verstoßen, bestimmte Maßnahmen ergreifen. Dazu gehört auch das Entfernen von URLs aus unserem Index. Wenn wir manuelle Maßnahmen ergreifen, wird der Websiteinhaber von uns über die Search Console benachrichtigt. Denkt daher daran, ein Search Console-Konto einzurichten.

Entscheidet euch für Werbenetzwerke, die einen transparenten Umgang mit Nutzer-Traffic pflegen. Dadurch lässt sich verhindern, dass ihr eure eigenen Nutzer unwissentlich weiterleitet. Wenn ihr das Vertrauen der Nutzer in Onlinewerbung stärken möchtet, informiert euch über die branchenüblichen Best Practices für die Teilnahme an Werbenetzwerken. Einen guten Einstieg bietet hier beispielsweise die Trustworthy Accountability Group (Interactive Advertising Bureau) mit ihren Inventory Quality Guidelines. Es gibt viele Möglichkeiten, eure Inhalte durch mobile Lösungen zu monetarisieren und dabei eine hochwertige Nutzererfahrung zu bieten – setzt sie entsprechend ein.
Bei Fragen oder Kommentaren zu mobilen Weiterleitungen nutzt bitte das Forum für Webmaster von Google.


Post von Vincent Courson und Badr Salmi El Idrissi, Search Quality Team
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
tl;dr: Das AJAX-Crawlingschema, das wir 2009 vorgeschlagen haben, empfehlen wir jetzt nicht mehr.

Im Jahr 2009 machten wir einen Vorschlag, um AJAX-Seiten crawlbar zu machen. Damals waren unsere Systeme noch nicht in der Lage, Seiten, die JavaScript für das Präsentieren von Inhalten verwenden, zu rendern und zu analysieren. Da "Crawler … dynamisch erstellte Inhalte nicht sehen konnten", schlugen wir eine Reihe von Verfahren vor, mit denen Webmaster sicherstellen können, dass ihre AJAX-basierten Anwendungen von Suchmaschinen indexiert werden.

Die Zeiten haben sich geändert. Solange ihr den Googlebot nicht blockiert, sodass er eure JavaScript- oder CSS-Dateien nicht crawlen kann, können wir heute normalerweise eure Webseiten wie moderne Browser rendern und analysieren. Um diese Optimierung widerzuspiegeln, haben wir kürzlich unsere technischen Richtlinien für Webmaster aktualisiert. Wir raten jetzt davon ab, dass der Googlebot für das Crawlen der CSS- oder JS-Dateien eurer Website blockiert wird.

Da die Annahmen, die unserem Vorschlag von 2009 zugrunde lagen, nicht mehr gültig sind, empfehlen wir nun, den Prinzipien der progressiven Verbesserung zu folgen. Beispielsweise könnt ihr die HTML5-History API verwenden, um die Zugänglichkeit für eine größere Zahl an Browsern sowie für unsere Systemen zu gewährleisten.

Fragen und Antworten

F: Meine Website folgt derzeit eurer Empfehlung und unterstützt das Format "_escaped_fragment_". Wird meine Website nun nicht mehr indexiert, da eure Empfehlung eingestellt wurde?
A: Nein, die Website wird weiterhin indexiert. Im Allgemeinen empfehlen wir euch jedoch, beim nächsten Update eurer Website die Best Practices der Branche zu implementieren. Anstelle von URLs im Format "_escaped_fragment_" crawlen, rendern und indexieren wir in der Regel URLs im Format #!.

F: Wird das Abrücken vom AJAX-Crawlingschema zu den Best Practices der Branche als Websiteverschiebung betrachtet? Muss ich Weiterleitungen implementieren?
A: Wenn die aktuelle Konfiguration im Moment für euch gut funktioniert, muss man nicht sofort wechseln. Wenn ihr eine neue Website aufbaut, oder eine bestehende restrukturiert, empfehlen wir, "_escaped_fragment_" URLs zu vermeiden.

F: Ich verwende ein JavaScript-Framework und zeige dem Googlebot eine vorgerenderte Seite. Ist dies weiterhin möglich?
A: Im Allgemeinen sollten Websites ihre Seiten nicht nur für Googlebot vorrendern -- wir erwarten, dass eine solche Massnahme Geschwindigkeitsvorteile für alle Benutzer ergeben würde, und dass progressive Verbesserungstechniken verwendet werden. Wenn Seiten vorgerendert werden, stellt sicher, dass die Inhalte für Googlebot dieselben sind, wie sie Benutzer sehen: im Aussehen sowie in der Interaktion. Wenn für den Googlebot andere Inhalte als für normale Nutzer bereitgestellt werden, handelt es sich um "Cloaking", das gegen unsere Richtlinien für Webmaster verstößt.

Wenn ihr Fragen habt, könnt ihr diese gerne hier oder im Hilfeforum für Webmaster posten.

Posted:
Als wir vor ungefähr zehn Jahren eine Richtlinie namens "First Click Free" eingeführt haben, war es schwer vorstellbar, dass sich in der Welt, in der wir jetzt leben, in der man ständig erreichbar ist und an mehreren Bildschirmen und auf mehreren Geräten arbeitet, die Nutzung von Inhalten auf so eine drastische Weise und so schnell ändern würde.

Von Anfang an ging es uns darum, dem Nutzer durch First Click Free einen einfachen Zugang zu hochwertigen Nachrichten zu verschaffen. Außerdem können Verlage und Webpublisher, die ein kostenpflichtiges Abo anbieten, über die Google-Suche und Google News gefunden werden.

2009 wurden die "First Click Free"-Richtlinien aktualisiert (in Englisch), um die Nutzung auf maximal fünf Artikel pro Tag zu beschränken und so Verlage und Webpublisher zu schützen, die den Eindruck hatten, dass einige Nutzer die Richtlinien missbrauchen. In letzter Zeit wurden wir von Verlagen und Webpublishern auf die Notwendigkeit hingewiesen, die Richtlinien an die mobile Nutzung und die Nutzung auf mehreren Geräten anzupassen. Heute möchten wir bekannt geben, dass die Beschränkung für First Click Free auf maximal drei Artikel pro Tag festgelegt wurde (in Englisch). Diese Änderung betrifft sowohl die Google-Suche als auch Google News.

Google möchte sich daran beteiligen, Nutzern hochwertige Nachrichten zu bieten und Verlage und Webpublisher mit Nutzern zusammenzubringen.  Wir glauben, dass First Click Free dafür sehr nützlich ist und werden die Richtlinien regelmäßig überprüfen und bei Bedarf aktualisieren, damit Nutzer und Verlage und Webpublisher weiterhin gleichermaßen davon profitieren. Wir freuen unsüber jedes Feedback von euch.

Fragen und Antworten zu First Click Free

F: Sind die sonstigen Inhalte der alten Richtlinien noch gültig?
A: Ja. Weitere Informationen findet ihr in den Google News-Richtlinien, den Richtlinien für die Google Websuche und in den entsprechenden Blogposts (in Englisch).

F: Kann ich First Click Free auch nur für einen bestimmten Bereich meiner Website bzw. nur für Google News oder nur für die Google Websuche anwenden?
A: Natürlich! Dazu müsst ihr euch nur vergewissern, dass der Googlebot und Nutzer der entsprechenden Suchergebnisse die erforderlichen Inhalte sehen können. Wenn ihr dem Googlebot die vollständigen Inhalte einer Seite einblendet, Nutzern jedoch nur eine Registrierungsseite, wird dies als Cloaking eingestuft.

F: Muss ich mich anmelden, um First Click Free zu nutzen?
A: Bitte teilt uns mit, wenn ihr First Click Free für Google News verwenden möchtet. Über den Status von First Click Free für die Google Websuche müsst ihr uns nicht informieren.

F: Welche Methode wird bei der Zählung von Nutzerzugriffen bevorzugt?
A: Da es viele unterschiedliche Websitemodelle gibt, ist es am besten, diese Entscheidung dem Verlag bzw. dem Webpublisher zu überlassen.

Weitere Informationen dazu findet ihr in unserem Blogpost über First Click Free für Google News (in Englisch).


Post von John Mueller, Google Schweiz
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
In der letzten Zeit haben wir einige Änderungen an den Algorithmen vorgenommen, die das Problem gehackter Spaminhalte in unseren Suchergebnissen beseitigen sollen. Eine Vielzahl seriöser Websites wird von Spammern gehackt und missbraucht zu Zwecken wie Malware-Downloads, Traffic zu Seiten von geringer Qualität, Pornografie und zur Vermarktung von gefälschten Waren oder illegalen Arzneimitteln, etc.

Wenn Websiteinhaber die standardmäßigen Best Practices für die Sicherheit nicht anwenden, können ihre Websites leicht gehackt werden.  Dies gilt auch für Regierungswebsites sowie Websites von Universitäten, kleinen und großen Unternehmen, Restaurants, Vereinen, Tagungen und vielen mehr. Spammer und Cyberkriminelle wählen diese Websites gezielt aus und schleusen Seiten mit schädlichen Inhalten ein, um so ein besseres Ranking in den Suchergebnissen und damit mehr Traffic zu erhalten.

Wir gehen hart gegen gehackte Spaminhalte vor, um Nutzer und Webmaster zu schützen.

Die algorithmischen Änderungen werden je nach Sprache letztendlich ca. 5 % der Anfragen betreffen. Mit der Einführung des neuen Algorithmus wird Nutzern möglicherweise auffallen, dass für einige Suchanfragen nur die relevantesten Suchergebnisse angezeigt werden, wodurch sich die Anzahl der Suchergebnisse verringert:

blog-image.png

Der Grund dafür ist die hohe Anzahl an gehackten Spaminhalten, die entfernt werden. In Kürze sollte aber eine Verbesserung erkennbar sein. Wir arbeiten weiterhin daran, unsere Systeme so einzurichten, dass sie schädliche Inhalte herausfiltern und seriöse Inhalte beibehalten. Wenn ihr Fragen zu diesen Änderungen habt oder uns Feedback zu den Algorithmen geben wollt, dann schaut einfach in unseren Foren für Webmaster vorbei.

Post von Ning Song, Software Engineer
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
2015 haben wir bisher einen Anstieg der Hacking-Angriffe auf Websites um 180 % beobachtet und die Zahl der Anträge auf erneute Überprüfung gehackter Websites ist um 300 % gestiegen. Wir arbeiten intensiv daran, Webmastern anhand von Methoden wie Blogposts und #NoHacked-Kampagnen beim Verhindern von Hacks zu helfen. Außerdem trägt unser Prozess der erneuten Überprüfung dazu bei, dass gehackte Websites schneller und leichter wiederhergestellt werden können. Wir haben uns auf folgende Punkte konzentriert:

1) Verbesserte Kommunikation

2) Verbesserte Tools

3) Ständiges Feedback

1. Die Kommunikation mit Webmastern gehackter Websites verbessern

Im vergangenen Jahr haben wir die Funktion Anmerkung des Prüfers in unserem Prozess der erneuten Überprüfung eingeführt. Anhand dieser Funktion können wir auf einen Antrag auf erneute Überprüfung mit auf den Fall abgestimmten Beispielen und Ratschlägen antworten. 2015 konnten wir bisher mehr als 70 % aller Webmaster, deren Antrag auf erneute Überprüfung abgelehnt wurde, eine auf den Fall abgestimmte Antwort mit genauen Hinweisen, wo und wiedie noch vorhandenen gehackten Inhalte zu finden sind, senden. Die Ergebnisse können sich sehen lassen: Die durchschnittliche Zeit, die von einer manuellen Maßnahme aufgrund des Hacks einer Website bis zum Eingreifen des Webmasters und dem Entfernen der manuellen Maßnahme vergeht, ist um 29 % gesunken.
"Wir haben auf eurer Website Inhalte gefunden, die wahrscheinlich von einem Hacker eingefügt wurden. Dieser Inhalt wird ggf. "gecloaked" d. h. Google bekommt etwas anderes angezeigt, als die Besucher eurer Website. Ihr könnt die Funktion "Abruf wie durch Google" in den Webmaster-Tools verwenden um zu erkennen, was wir gesehen haben. Mehr zum Thema "Cloaking" und "Abruf wie durch Google" gibt's hier: https://support.google.com/webmasters/answer/2604723. Hier ist ein Beispiel für von Hackern eingefügte Inhalte auf eurer Website: "viagra kaufen" auf http://www.example.com/viagra-kaufen-online/." 
Beispiel für eine "Anmerkung des Prüfers" mit genauen Hinweisen und personalisiertem Beispiel eines gehackten Textes und einer gehackten Seite

Außerdem haben wir unsere zweite #NoHacked-Kampagne fertiggestellt, die weitere hilfreiche Informationen enthält, wie Hacks verhindert werden können und wie man gehackte Websites wiederherstellt. In dieser Kampagne konzentrieren wir uns darauf, wie ihr die Sicherheit eurer Website verbessern könnt und wie ihr eure Website wiederherstellen könnt, wenn sie manipuliert wurde. Den ersten Post findet ihr unter http://goo.gl/AoWdFp.


2. Verbesserte Tools, einschließlich automatischem Löschen manueller Maßnahmen aufgrund gehackter Websites

Letztes Jahr haben wir im Tool Abruf wie durch Google die Funktion "Abrufen und rendern" eingeführt, mit der euch die Website so angezeigt wird, wie der Googlebot sie sieht. Diese Funktion ist bei der Wiederherstellung der Website nach einem Hack nützlich, da viele Hacker Cloaking-Inhalte einschleusen, die für normale Nutzer nicht sichtbar sind, jedoch von Suchmaschinen-Crawlern wie dem Googlebot gefunden werden.
Dieses Jahr haben wir auch die Fehlerbehebung für gehackte Websites in 23 Sprachen eingeführt, in der Webmastern grundlegende Schritte zur Wiederherstellung von Websites nach einem Hack erklärt werden. Bitte teilt uns mit, ob die Fehlerbehebung hilfreich war, da wir weiterhin an neuen Funktionen arbeiten.
Außerdem führen wir gerade Betatests für die automatische Löschung einiger manueller Maßnahmen aufgrund gehackter Websites durch. Wenn Google in der Search Console eine manuelle Maßnahme "gehackte Website" unter "Teilübereinstimmungen" findet und unsere Systeme feststellen, dass die gehackten Inhalte nicht mehr vorhanden sind, wird die manuelle Maßnahme in manchen Fällen automatisch von uns entfernt. Wir empfehlen trotzdem, dass ihr einen Antrag auf erneute Überprüfung stellt, wenn ihr manuelle Maßnahmen findet. Wundert euch aber nicht, wenn die manuelle Maßnahme "gehackte Website" nicht mehr erscheint und euch so die Arbeit erspart.

Beispiel einer manuellen Maßnahme "gehackte Website" bei einer Teilübereinstimmung: Wenn unsere Systeme feststellen, dass die gehackten Inhalte nicht mehr vorhanden sind, wird die manuelle Maßnahme in manchen Fällen automatisch von uns entfernt.

3. Bitte um Feedback und Unterstützung

Anhand des Feedbacks, das wir von Webmastern gehackter Websites erhalten haben, konnten wir unsere Kommunikation und unsere Tools verbessern. Dieses Jahr haben wir beispielsweise in Mountain View, USA und Dublin, Irland Brainstorming-Treffen mit Webmastern organisiert, die Anträge auf erneute Überprüfung gehackter Websites gestellt haben. Außerdem haben wir willkürlich Webmaster ausgewählt, die den Prozess der erneuten Überprüfung durchlaufen haben. Wir haben herausgefunden, dass nur 15 % der Webmaster mit dem Prozess unzufrieden waren. Die größte Herausforderung bestand für die Webmaster darin, eindeutigere Benachrichtigungen über den Hack ihrer Website und detailliertere Hinweise zur Lösung des Hackangriffs zu erhalten. Dieses Feedback trug direkt zu unserem ausführlicheren Blogpost über die Wiederherstellung gehackter Websites und zu vielen Inhalten unserer neuesten #NoHacked-Kampagne bei.

Brighter.jpg
Google-Mitarbeiter erarbeiten nach dem Treffen mit Webmastern in Dublin neue Lösungen, um den Prozess der erneuten Überprüfung gehackter Websites zu verbessern

Für hochauflösende Version: https://goo.gl/photos/TkvkwYt23MpVHBwz6

Wir werden Webmaster gehackter Websites weiterhin anhand der oben dargestellten Methoden unterstützen. Zusätzlich stehen euch das Portal Hilfe für Webmaster bei gehackten Websites und unsere Foreneinträge für Sicherheit, Malware und gehackte Websites zur Verfügung. Wir würden uns freuen, wenn ihr uns  im Kommentarfeld unten eure Ideen mitteilt, wie Google Webmaster beim Wiederherstellen gehackter Websites noch besser unterstützen kann.


Post von Josh Feira und Yuan Niu, Search Quality Team
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
Um die Qualität unserer Suchergebnisse zu sichern, gehen wir mittels automatischen und manuellen Maßnahmen gegen Websites vor, die gegen unsere Richtlinien für Webmaster verstoßen. Wenn bei eurer Website eine manuelle Maßnahme  vorliegt, könnt ihr auf der Seite [manuelle Maßnahmen] in der Search Console prüfen, welcher Teil eurer Website davon betroffen ist und aus welchem Grund. Nach der Fehlerbehebung könnt ihr einen Antrag auf erneute Überprüfung an Google senden. Bei zahlreichen Webmastern wird durch diesen Prozess die manuelle Maßnahme aufgehoben.

Einige Seiten verstoßen jedoch erneut gegen die Richtlinien für Webmaster, nachdem sie den Prozess zur erneuten Überprüfung erfolgreich durchlaufen haben. So kann beispielsweise ein Webmaster, der aufgrund eines unnatürlichen Links auf eine andere Website eine Benachrichtigung über eine manuelle Maßnahme erhalten hat, ein "nofollow"-Attribut für den Link einrichten und einen Antrag auf erneute Überprüfung einreichen. Nachdem der Antrag erfolgreich war, entfernt er dann das "nofollow"-Attribut für den Link wieder. Solche wiederholten Verstöße führen dazu, dass eine erneute erfolgreiche Prüfung schwieriger wird. Erfolgt ein wiederholter Verstoß mit eindeutiger Spam-Absicht, werden möglicherweise weitere Maßnahmen auf der Website ergriffen.

Wir empfehlen deshalb, dass Webmaster Verstöße gegen die Richtlinien für Webmaster vermeiden - insbesondere mehrmalige. Wir als Search Quality Team werden unsere Nutzer weiterhin schützen, indem wir Spam aus den Suchergebnissen entfernen.

Gepostet vom Google Search Quality Team