En ny standard for å beskytte digitalt publisert innhold på Internett er nå blitt lansert. Denne standarden har fått navnet ACAP, som står for Automated Content Access Protocol. Formålet med ACAP er å hindre søkemotorer og digitale roboter fra å sanke inn informasjon i stor stil fra nettsteder som ikke har gitt samtykke til slik bruk. Dette arbeidet bygger altså videre på den allerede eksisterende standarden for å hindre indeksering av nettsider ved bruk av automatiserte tjenester, Robot Exclusion Standard.
ACAP legger opp til at automatiserte tjenester som aksesserer et nettsted vil motta forespørsler fra den nye protokollen om tilgangsrettighetene roboten opererer ut i fra. Dette gjøres ved et digitalt merke som "festes" på de aktuelle nettområdene, og som den automatiserte tjenesten må forholde seg til.
Initiativtakeren til dette konseptet er WAN (World Association of Newspapers) som ledes av Gavin O`Reilly. O`Reilly uttaler følgende om bakgrunnen for ACAP:
"This industry-wide initiative positively answers the growing frustration of publishers, who continue to invest heavily in generating content for online dissemination and use."
IPA (International Publishers Association) deltar også i arbeidet med ACAP, sammen med European Publishers Council og the European Newspaper Publishers' Association.
Francisco Pinto Balsemão, lederen av EPC, uttaler i en pressemelding:
“ACAP will unambiguously express our preferred rights and terms and conditions. In doing so, it will facilitate greater access to our published content, making it more, not less available, to anyone wishing to use it, whilst avoiding copyright infringement and protecting search engines from future litigation."
ACAP forventes å bli implementert allerede i løpet av inneværende år, og vil kunne utfylle Robot Exclusion Standard som bransjestandard for søkemotorindustrien. Lanseringen av ACAP kommer altså samtidig som søkegiganten Google gikk på en kraftig smell i Belgia, i forhold til bruk av nettopp redaksjonelt innhold uten samtykke.