Specjalista SEO szukany w pliku robots.txt na DailyMail

Często się słyszy, jak pracodawcom jest ciężko znaleźć specjalistę w konkretnej dziedzinie informatyki. Na rynku jest wielu pozerów, a szuka się osób z pasją, myślących kreatywnie. Tak, jak w przypadku brytyjskiej gazety Daily Mail.

Jak można szukać specjalisty od SEO? Najlepiej w najbardziej oczywistych miejscach jak… plik robots.txt, który pozwala na zablokowanie konkretnym robotom dostępu do np. konkretnych folderów na serwerze.

Wiadomość znaleziona przez Malcolma Colesa w komentarzu pliku robots.txt brzmi w tłumaczeniu tak:

#12 sierpnia, MailOnline szuka utalentowanego specjalisty SEO, więc jeśli znalazłeś tą wiadomość, jesteś osobą której właśnie szukamy!

Poza tą wiadomością był tam jeszcze adres e-mail, gdzie zainteresowani mogą wysłać swoje CV, ale jak twierdzi Malcolm na swoim blogu, można było się także w sprawie pracy skontaktować z Jamesem Bromleyem na Twitterze.

Bardzo mi się ten pomysł podoba i nawet się uśmiechnąłem. Ktoś naprawdę miał fantazję. Kto by przewidział, że szukanie specjalisty od SEO może tak wyglądać? Chyba nikt. :) Oczywiście już nie raz zdarzały się przypadki ukrywania różnych treści w robots.txt, ale tym razem – naprawdę powala. ;)