– utsändning, rundradio, tv-sändningar:
- – utsändning – radio- eller tv-sändning från en till många (envägskommunikation);
- – se rundradio;
- – ”allmänt anrop” i högtalarsystem eller snabbtelefon;
- – i datornät: sändning av paket eller meddelande till alla andra datorer i det lokala nätet– se rundsändning.
– Se också broadcast, broadcast storm, broadcast tv och radio broadcasting samt casting.
[datakommunikation] [radio och tv] [telefoni] [ändrad 27 november 2012]
(Network mapper) – ett säkerhetsprogram som kartlägger datornätverk. – Nmap tar reda på vilka datorer som finns i ett nätverk, vilka operativsystem som de kör, vilka portar som är öppna och vilka datorer som är fjärranslutna. Nmap används för övervakning av säkerheten – men också som hjälpmedel för dataintrång. – Nmap utvecklades 1997 av Gordon Lyon, även känd som Fyodor (länk). Programmet sprids som fri mjukvara, och finns för alla vanliga operativsystem. – Läs mer om Nmap på nmap.org.
[it-säkerhet] [nätverk] [ändrad 3 oktober 2018]
ett program som testar säkerheten på webbaserade tjänster. Det är alltså ett verktyg för penetrationstest, men kan, som alla sådana verktyg, också användas för dataintrång. Det kom hösten 2012 och påminde om det äldre Firesheep. – Cadger betyder tiggare, gatuförsäljare. – Se cookiecadger.com (nere sedan november 2018), se också GitHub (länk).
[it-säkerhet] [webben] [ändrad 11 december 2018]
i HTML: en tagg som talar om för sökmotorer att de inte ska bry sig om den följande länken. Används för att stävja kommentarspam. Huruvida sökmotorerna respekterar instruktionen är en annan fråga. – Läs också om Robots exclusion protocol.
[sökmotorer] [webbpublicering] [ändrad 9 oktober 2019]
maskinläsbara förteckningar över de webbadresser på en webbplats som är tillgängliga för sökmotorer. – Sitemaps hjälper spindlar att hitta så mycket information som möjligt på webbplatsen. En sitemap är en XML‑fil som räknar upp webbadresserna på webbplatsen med information om när de senast har ändrats, hur ofta de brukar ändras och hur viktiga de anses vara. Sitemaps är ett protokoll för informationsutbyte mellan webbplatsen och sökmotorerna. Syftet är att underlätta för sökmotorerna (deras spindlar) att hitta allt på webbplatsen. – Sitemaps har fastställts i samarbete mellan Google, MSN och Yahoo. – Se sitemaps.org. – Jämför med ACAP och Robots exclusion protocol, som är till för att ange vad sökmotorerna inte ska kartlägga.
[sökmotorer] [webbpublicering] [xml] [ändrad 9 februari 2018]
ett arkiv med sökbara kopior av miljarder webbsidor. – Syftet är att bevara så många webbsidor som möjligt i det skick som de hade när de lästes in. Det finns vanligtvis en serie kopior av samma webbsida, kopierade vid olika tider. – Wayback machine, som grundades 2001, drivs ideellt av organisationen Internet archive. I början av 2020 hade den 431 miljarder sparade webbsidor. – Namnet: Anspelar på the Wabac machine, en tidsmaskin från den tecknade tv‑serien The Rocky and Bullwinkle show (se Wikipedia) som visades i början av 1960‑talet. – Se archive.org. – Länkar till webbsidor som inte längre finns på sin ursprungliga plats, men som är bevarade på Wayback Machine, är i denna ordlista markerade med ordet Arkiverad. – Läs också om Wayforward machine.
[arkiv och bibliotek] [sökmotorer] [ändrad 10 oktober 2021]
instruktioner om att vissa (eller alla) webbadresser på en webbplats inte ska kartläggas av sökmotorer. – Robots exclusion protocol kallas ofta för robots.txt efter den textfil som innehåller instruktionerna, och som sökmotorernas spindlar, här kallade robotar, ska kunna läsa och följa. – Tillämpning av Robots exclusion protocol är frivilligt, och det finns ingen garanti för att alla besökande spindlar rättar sig efter instruktionerna i robots.txt. Protokollet är inte enbart avsett för sökmotorer, utan även för andra som automatiskt samlar in information på webbsidor. – Protokollet ger möjlighet att ange att en del sidor får kartläggas, men inte andra. Det kan också specifikt utestänga vissa spindlar, men släppa in andra, och det kan ange att besöken inte får ske för ofta. Kallas också för Robots exclusion standard. – Läs mer på robotstxt.org. – Se också ACAP och nofollow. – Sitemaps är komplementet: instruktioner om vilka sidor som finns att kartlägga.
[sökmotorer] [webbpublicering] [ändrad 9 februari 2020]
ett avslutat projekt för utveckling av internet, finansierat av EU, påbörjat 2004 avslutat 2007. Evergrowprojektet skulle mäta och kartlägga internet och utveckla tekniker för att göra internet snabbt, säkert och utbyggbart med sikte på år 2025. De nya teknikerna skulle införas som ett extra skikt ovanpå det existerande nätet. Projektets webbplats, evergrow.org är nerlagd, men se EU:s webbsidor. – Jämför med PlanetLab.
[avslutat] [forskning] [internet] [ändrad 17 april 2018]