Nyhetssökmotorer på Nordiska (nyhetsbranschdagarna)

På SvD:s Reklam och medier-blogg kan man läsa kommentarer om uppföljningen av problemen för Google News i Belgien. Enligt IDG anklagar nu belgiska Copiepresse även Microsoft (för besökare från Belgien) för att djuplänka till ”deras” nyhetsartiklar med rubrik och ingress.

På SvD:s Reklam och medier-blogg skrivs även att representanter för tidningsorganisationen World Association of Newspapers (WAN) drev hårt linjen om att tidningarna på teknisk väg borde skydda sig mot crawlers på nordiska pressens branschdagar den 5-6 oktober [1]. På branschdagarna presenterades också Sesams syn på nyhetsaggregering [2].


Hos SvD Reklam och media framgår att:

Men alla håller inte med: det finns tidningsföretag, som Helsingborgs Dagblad, som välkomnar sök- och aggregeringstjänsterna och ser hur de kan driva trafik och intresse.

Det stämmer nog bra. Det är inte bara Joakim Jardenberg på HD.se som verkar välkomna nyhetssökmotorer i Sverige. Även SvD själva, NyTeknik, och Affärsvärlden, bland andra, uppfattar jag som mycket positiva. Men det finns också dem som inte tycker om nyhetssökmototer, och som driver det stenhårt. Till exempel Clas Lundh som ansvarar för bl.a. Katrineholms-Kuriren (vars sajt jag inte vågar länka till) driver stenhårt linjen att de tjänar mer pengar på sin webbverksamhet om de inte får ytterligare c:a 300 besökare per dag från Katrineholmsregionen som ser deras nyheter via Frisims lokala nyheter. Clas Lundh tror också att det bara är en tidsfråga innan alla andra tidningar i Sverige vägrar ta emot besökare från sökmotorer. Katrineholms-Kuriren spärrar aktivt sin nyhetssajt, inklusive sin RSS-feed, för flera nyhetssökmotorer, däribland vår Frisim.com. Clas Lundh skriver per mail till mig att:

Vissa Tidningar vet inte hur dom ska göra för att skydda sig mot spindling och annat. Jag är övertygad om att även de kommer att spärra.

Jag tror att Clas Lundh underskattar den tekniska kompetens som finns hos de som driver större nyhetssajter i Sverige. Jag tror att Joakim Jardenberg på Helsingborgs Dagblad är på rätt väg, och att Clas Lundh är fel ute. Samtidigt respekterar jag att varje nyhetssajt får använda och eventuellt skydda sitt nyhetsmaterial som de tycker passar dem. Men jag rekommenderar dem som driver nyhetssajter men som inte vill ha besökare till sin sajt att sluta spendera tid och pengar på drift och utveckling.

[1] Slides från WAN bl.a. om Automated Content Access Protocol (ACAP) som ses som en ”förbättrad” robots.txt för nyhetssajter.
[2] Slides från Schibsted om Sesams syn på nyhetsportaler, där de stolt kan skriva att de köper nyhetslänkar från Retriever.

Comments are closed.