Jeśli na prawdę przeszkadza nam opisany problem, możemy łatwo z niego wybrnąć korzystając z jednego z poniższych sposobów.

Robots.txt – zablokowanie Google Images

Plik robots.txt umieszczony w folderze głównym strony, ma za zadanie kontrolować dostęp do strony przez boty indeksujące. Zapisując w nim proste dwie linijki:

User-agent: Googlebot-Image
Disallow: /

możemy zablokować robota od Google odpowiedzialnego za indeksowanie obrazów. W ten sposób nie wpływamy bezpośrednio na nasze wyniki w wyszukiwarce, a jedynie zabezpieczamy stronę przed indeksowaniem wszelkiego rodzaju grafik.

.htaccess – blokada hotlink z Google Images

Rozwiązanie bazujące na robots.txt jest proste, jednak nie działa w przypadku stron starszych, które zostały już zindeksowane – ich materiały już znajdują się w zbiorze Google. Dlatego jeśli już wdaliśmy się w nieszczęśliwy romans z wyszukiwarką obrazków, możemy uciec się do wykonania przekierowania w .htaccess.

W pierwszej wersji tego rozwiązania, blokujemy po prostu wszystkie pliki o zadanym rozszerzeniu dla domen, z po za naszego serwera.

RewriteCond %{HTTP_REFERER} !^$
RewriteCond %{HTTP_REFERER} !^https://(www\.)?strona\.pl/ [NC]
RewriteRule \.(gif|jpg|png)$ – [F]

Druga wersja zakłada przekierowanie do innego pliku – najczęściej spreparowanego przez nas obrazka. W poprzednim kodzie wystarczy zmodyfikowac ostatnią linię kodu:

RewriteCond %{HTTP_REFERER} !^$
RewriteCond %{HTTP_REFERER} !^https://(www\.)?strona\.pl/ [NC]
RewriteRule \.(gif|jpg|png)$ https://www.strona.pl/plik.png [R=301,L]

Podsumowanie

Jak widać, aby uniemożliwić Google podkradanie naszego contentu, nie trzeba robić wiele. Kilka linii kodu, dwa pliki i po kłopocie. Z pewnością zysk zaoszczędzony transfer w przypadku niektórych witryn może być znaczny, a z kolei zmniejszenie ruchu w zasadzie znikome, jeśli w ogóle takie nastąpi.

Autor: Konrad Przydział