Parser hva er dette enkle språket, for det som trengs og hvordan å gjøre det

Hilsen til deg på bloggens sider: My-busines.ru. I dag vurderer vi en populær begrep - en av måtene å automatisere når du arbeider med nettsteder.

Parsers - spesialiserte programmer som kan utforske innhold i automatisk modus og oppdage de nødvendige fragmentene.

Under partene innebærer en handling der et bestemt dokument analyseres fra synspunkt og ordforråds synspunkt. Det er forvandlet; Hvis det identifiserte ønsket informasjon, er de valgt for etterfølgende bruk.

Parsing brukes for nødinformasjon. Dette er navnet på det alternative syntaksestimatet på dataene som er lagt ut på nettsidene. Denne metoden brukes på rettidig behandling og kopiering av et stort antall opplysninger hvis manuell arbeid krever lang tid.

Hva er det nødvendig for

For å skape et nettsted og dens effektive kampanje er det nødvendig med en stor mengde innhold, som må dannes i manuell håndbok.

Parsers har påfølgende muligheter:

  • Oppdater data for å støtte relevans. Sporing av endringer i valutaer eller værmeldingen er i manuell rekkefølge, det er umulig av denne grunn til å bli benyttet til en parsing;
  • Innsamling og øyeblikkelig duplisering av informasjon fra andre nettsteder for overnatting på deres ressurs. Informasjonen som er kjøpt med parsing, er omskrivning. En slik løsning brukes til å fylle filminngangen, nyhetsprosjekter, ressurser med kulinariske oppskrifter og andre nettsteder;
  • Tilkobling av datastrømmer. Det er oppnådd en betydelig mengde informasjon fra enkelte kilder, prosessering og distribusjon. Det er behagelig å fylle avisene;
  • Parsing øker vesentlig øker arbeidet med søkeord. Ved å sette opp arbeid, er det tillatt å umiddelbart velge forespørselen som kreves for å markedsføre. Etter clustering er SEO-innholdet utarbeidet på sidene, der det største antallet nøkler vil bli gitt.

Hva er synspunkter

Oppkjøp av informasjon på Internett er et komplekst, vanlig, tar mye tid. Parsers kan sortere en betydelig andel av nettressursene på jakt etter den nødvendige informasjonen, automatisere den.

Raskere "Pars" Universal Network of Search Concepts Robots. Informasjonen akkumuleres imidlertid av parsene og i individuelle interesser. Ved basen er NR, det er mulig å skrive avhandlingen. Parsing gjelder automatiske unike kontrollprogrammer. Tekstdata sammenligner raskt innholdet på hundrevis av nettsider med teksten som er oppgitt.

Uten parsing ordninger, nettbutikkholdere som trenger hundrevis av monotypiske bilder av produkter, vil tekniske data og annet innhold være vanskelig å håndtere egenskapene til produktene.

Tilordne 2 mer vanlige parceration arter på Internett:

  • Parsing av innhold;
  • Parsing totalt i utvinning av søkebegreper.

Noen programmer kombinerer disse funksjonene, pluss strammer ekstra funksjoner og krefter.

Hvordan lage parser

Installasjon:

  • Det er lettest å oppfylle parsing ved hjelp av PHP file_get_contents () funksjoner. Det gjør det mulig å kjøpe innholdet i filen i varianten av tekstlinjen. Funksjonen gjelder metoden "Memory Mapping", noe som gjør det bedre produktiviteten.
  • For eksempel, for å gjøre et skript, som analyserer informasjon fra nettsiden til den russlands sentralbank, bør kjøpes ved hjelp av den riktige funksjonen til XML-siden, ved å stille inn dato i samsvar med riktig format for nettstedet, etter som det er delt inn i det med vanlig ordlyd.
  • Hvis du trenger å analysere spesifikt XML-filen selv, er det fortsatt passende funksjoner. For grunnlaget for parseren, bør den initialiseres ved hjelp av xml_parser_create: $ parser = xml_parser_create ();
  • Derfor, registreringen av funksjoner som vil redigere riktige koder og tekstdata. De tilsvarende metodene til grunnlaget og slutten av XML-komponenten genereres: XML_SET_Element_Handler ($ PARSER, Startelement, "endelement");
  • Det er mulig å lese informasjon ved hjelp av standard FOPEN () og FGETS () -funksjonen i den aktuelle syklusen. Innholdet i filene er gitt linje i XML_PARSE ().
  • For å fjerne konseptet med ressurser, brukes XML_PARSER_FREE () -funksjonen. Disse funksjonene regnes som de mest effektive når du behandler XML-filer.

Hvilke programmer som skal brukes

Tenk på noen av de beste lett tilgjengelige parsing-programmene:

  • Import.io - Tilbyr utvikleren til å skape personlige datapakker fritt: Du trenger bare å importere data fra en bestemt nettside og eksportere den til CSV. Det er mulig å motta tusenvis av nettsider i løpet av få minutter, uten å snakke ingen kode, danner tusenvis av APIer i henhold til dine forhold.
  • Webhose.io-ov applikasjon for en nettleser som bruker sin informasjonsparsing-teknologi, noe som gjør det mulig å behandle mye informasjon fra mange kilder med en API. Webhose gir en gratulitt tariffplan for behandling av 1000 forespørsler per måned.
  • ScrapingHub - konverterer Internett-sider til forberedt innhold. Ekspertgruppen garanterer personlig tilgang til kunder, garanterer å skape en definisjon for hver original episode. Grunnleggende gratuitous-programmet gir adgang til 1 søkeobot, en bonuspakke bringer 4 identiske søkebots.
  • Parsehub - Det er et eget fra webapplikasjonen i form av et prosjekt for skrivebordet. Prosjektet gir gratis 5 sjekk søkprogrammer.
  • Spinn3R - gjør det mulig å analysere informasjon fra blogger, sosiale nettverk ... Spinn3R inneholder en "oppdatert" API, som gjør 95% av funksjonene på indeksering. Dette programmet innebærer forbedret beskyttelse mot "søppel", forsterket grad av sikkerhet for informasjon. Mekanismen skanner regelmessig nettverket, finner ut oppdateringer av nødvendig informasjon fra et stort antall kilder, brukeren har kontinuerlig oppdatert informasjon. Administrasjonspanelet gjør det mulig å avhende undersøkelsen.

Hva er en blekere nettsteder

Dette konseptet fungerer på det installerte programmet, sammenligner en bestemt kombinasjon av ord, med det som ble funnet på Internett. Hvordan handle med informasjonen som er oppnådd, staves ut i kommandolinjen, kalt "Regular Expression". Den består av tegn, organiserer søkprinsippet.

Parser-nettsteder utfører en tjeneste i en rekke stadier:

  • Søk etter de nødvendige dataene i det opprinnelige alternativet: Oppkjøp av tilgang til Internett-ressurskoden, lasting, nedlasting.
  • Få funksjoner fra Internett-sidekoden, markerer det nødvendige materialet fra programvare-krypteringssiden.
  • Danner en rapport i samsvar med vilkårene som er etablert (datapropp direkte i databaser, tekstfiler).

Video på dette emnet:

Til slutt er det nødvendig å legge til at artikkelen diskuterer bare juridisk parsing.

Markedsfører, webmaster, blogger siden 2011. Jeg elsker Wordpress, Email Marketing, Camtasia Studio, Affiliate Programs)) Jeg lager nettsteder og utlån nøkkelferdige billig. Vi lærer å lage og markedsføre (SEO) nettsteder i søkemotorer.

For å skrive denne artikkelen, brukte vi mye tid og krefter. Vi prøvde veldig hardt, og hvis artikkelen viste seg for å være nyttig, vennligst setter pris på vårt arbeid. Klikk og del med venner i Soc. Nettverk - det vil bli bedre takk for oss og motivasjon for fremtiden!

Parsing - Hva er det enkle ord? Hvis kort, så er dette en samling av informasjon om forskjellige kriterier fra Internett, automatisk. I prosessen med parseren sammenligner en spesifisert prøve og informasjonen som vil bli strukturert i det etterfølgende.

Som et eksempel kan den anglo-russiske ordboken bringes. Vi har det opprinnelige ordet "parsing". Vi åpner ordboken, finner den. Og som et resultat, vi får oversettelsen av ordet "analyse" eller "analyse". Vel, la oss nå forstå dette emnet mer detaljert

Innholdet i artikkelen:

Parsing: Hva er dette enkle ordene

Parsing er prosessen med å samle informasjon om kriteriene som er angitt av oss. For en bedre forståelse, la oss analysere et eksempel:

Et eksempel på hva som parsing: Tenk deg at vi har en nettbutikkleverandørbutikk som lar deg jobbe i henhold til ordningen Dropshipping Og vi ønsker å kopiere informasjon om varene fra denne butikken, og deretter plassere den på vår nettside / nettbutikk (jeg mener informasjon: Navnet på varene, en lenke til varene, prisen på varene, produktet av varer). Hvordan kan vi samle denne informasjonen? Første samlingsalternativ - gjør alt manuelt: Det vil si at vi manuelt passerer gjennom alle sidene på nettstedet som vi ønsker å samle inn informasjon og manuelt kopiere all denne informasjonen til bordet for ytterligere overnatting på vår nettside. Jeg synes det er klart at denne metoden for å samle inn informasjon kan være praktisk når du trenger å samle inn 10-50 produkter. Vel, hva skal jeg gjøre når informasjonen må samles om 500-1000 produkter? I dette tilfellet er det andre alternativet egnet. Det andre alternativet er å spare all informasjonen: Vi bruker et spesielt program eller en tjeneste (jeg vil snakke om dem nedenfor) og i automatisk modus last ned all informasjonen i det ferdige Excel-tabellen. Denne metoden innebærer en stor tidsbesparelse og tillater ikke å engasjere seg i rutinemessig arbeid. Dessuten tok jeg samlingen av informasjon fra nettbutikken bare for eksempel. Med hjelp av analyser kan du samle informasjon som vi har tilgang til.

Grovt talende parsing kan du automatisere samlingen av informasjon om kriteriene som er angitt av oss. Jeg synes det er klart at det å bruke en manuell metode for å samle informasjon er ineffektivt (spesielt i vår tid når informasjonen er for mye).

For klarhet vil jeg umiddelbart vise de viktigste fordelene ved parsing:

  • Advantage №1 - Hastighet. For en enhet av tid kan maskinen utstede flere detaljer eller i vårt tilfelle av informasjon enn om vi var på utkikk etter det på sidene på nettstedet. Derfor er datateknologier i informasjonsbehandling overlegne for manuell datainnsamling.
  • Fordel №2 - struktur eller "skjelett" av fremtidig rapport. Vi samler bare disse dataene som er interessert i å få. Dette kan være noe. For eksempel, tall (pris, nummer), bilder, tekstbeskrivelse, e-postadresser, navn, kallenavn, referanser, etc. Vi trenger bare å tenke på det på forhånd hvilken informasjon vi ønsker å få.
  • Fordel №3 er et passende bilde av rapporten. Vi mottar en endelig fil med en rekke data i ønsket format (XLSX, CSV, XML, JSON) og kan til og med umiddelbart bruke den ved å sette inn på riktig sted på nettstedet ditt.

Hvis vi snakker om tilstedeværelsen av minuser, er det selvsagt fraværet av de oppnådde dataene av unikhet. Først og fremst gjelder dette innholdet, vi samler alle åpne kilder, og parseren er ikke unik informasjon samlet.

Jeg tror at vi jobbet med begrepet parsing, nå la oss håndtere spesielle programmer og tjenester for parsing.

Hva er en parser og hvordan det fungerer

Hva er en parser og hvordan det fungerer

Parseren er noen programvare eller algoritme med en bestemt rekkefølge av handlinger som har til hensikt å skaffe spesifisert informasjon.

Informasjonsinnsamling skjer i 3 etapper:

  1. Skanning
  2. Valg av spesifiserte parametere
  3. Samling av en rapport

Ofte er parseren et betalt eller gratis program eller en tjeneste som er opprettet av dine krav eller din valgte for visse formål. Det er mange slike programmer og tjenester. Ofte er språket for skriving python eller php.

Men det er også separate programmer som lar deg skrive parsers. For eksempel bruker jeg Zennoposter-programmet og skriver parsene i den - det lar deg samle en parser som designer, men det vil fungere i samme prinsipp som betalte / gratis parsing-tjenester.

For eksempel kan du se denne videoen der jeg viser hvordan jeg opprettet en parser for å samle inn informasjon fra Spravker.ru-tjenesten.

Parsing - hva er så enkle ord. Hvordan fungerer parsing og parser arbeid, og hvilke typer parsers er (detaljert oversikt + video)

For å gjøre det klarere, la oss se på hvilke typer og arter som er parsere:

  • Som tilgang til VEB-ressursen. Parseren kan installeres på en datamaskin eller ikke installeres (sky løsning);
  • I henhold til teknologien som brukes. Programmer skrevet i et av programmeringsspråkene eller er utvidelsene for nettleseren, formler i Google-tabeller eller tillegg i Excel;
  • Etter destinasjon. Kontroller optimalisering av din egen ressurs, analyse av brukerdata og samfunn på sosiale nettverk, overvåking av konkurrenter, datainnsamling i et bestemt markedsnisje, analyse av priser og varer som kreves for å fylle nettbutikkkatalogen;

Det bør ikke glemmes at parsing har visse ulemper. Ulempen med bruk er de tekniske vanskelighetene som parseren kan skape. Så, forbindelsen til nettstedet skaper en last på serveren. Hver programforbindelse er løst. Hvis du kobler deg ofte, kan nettstedet blokkere deg på IP (men det kan enkelt omgå ved hjelp av en proxy).

Hvilke funksjoner er parsers? Hva kan du male med deres hjelp?

Hvilke funksjoner er parsers?

For å forstå hva parsing er nødvendig, som er så enkle ord, la oss vurdere anvendelsesområdene. For å samle inn en direkte informasjon, må du skrive eller kjøpe et spesielt program?

Så, jeg fremhevet følgende oppgaver for parseren (faktisk er det mye mer):

  • Parser for å finne beskrivelser av varer og priser. Først av alt snakker vi om nettbutikker som ved hjelp av spesielle programmer, samler for eksempel beskrivelser og egenskaper av varer. Så satt den umiddelbart til nettstedet ditt. I dette tilfellet er dette evnen til å raskt fylle varekortene med kildedata (tekniske egenskaper, beskrivelser, priser). Tatt i betraktning at mengden varer kan beregnes av hundrevis og tusenvis av stillinger, en annen, raskere måte, er ikke ennå. Det er nødvendig å umiddelbart forstå at slike beskrivelser ikke vil være unike.
  • Parrer og PublicHer for nettstedsider. Spesielt opprettet parsers med en bestemt frekvens "Pass" på VEB-ressurser fra en spesifisert liste. Hvis de har nye artikler om dem, beregner de umiddelbart på deres ressurs. Slik informasjon er noe grenser til tyveri og på en eller annen måte er et brudd på opphavsretten. Hvorfor er bare noen få? Fordi i intet land er det ingen slik lov som det er forbudt å bruke data i fri tilgang. Når det ikke er forbudt, betyr det at det er tillatt. Hva du ikke kan si om andre data, personlig. De er samletbare og brukes uten tillatelse fra eierne.
  • For personopplysninger Personlige data er laget av personopplysninger, for eksempel deltakere i enkelte sosiale grupper på enkelte ressurser, besøkende nettsteder, nettbutikker. Dette er navn, etternavn, e-postadresser, telefonnumre, alder, gulv. Kort sagt, alt som kan brukes til å bestemme målgruppene - forskjellige grupper av mennesker forenet av ett eller flere tegn. I utgangspunktet brukes slike parsers til to formål: 1. Korrekt sett opp målrettet annonsering i sosiale nettverk; 2. Samle personopplysninger (post, telefonnumre) for å sende spam (forresten jeg også syndet i min tid. Jeg skrev allerede om en slik måte å tiltrekke seg kunder i denne artikkelen). Du bør forstå at hvert produkt / tjeneste har sin egen kjøper . Derfor, definisjonen av målgruppen (skaper et bestemt portrett) og videre å samle dette publikum, gjør det mulig å finne potensielle kunder og utvikle annonser rettet mot en bestemt gruppe.
  • Parsers å oppdatere nyhetsfeed. Nyheter Internett-ressurser inneholder mange dynamiske opplysninger som endres veldig raskt. Automatisk værsporing, situasjoner på veiene, valutakursavgift Parser.
  • For utarbeidelsen av den semantiske kjernen . I dette tilfellet er programmet på jakt etter søkeord (spørringer) knyttet til et gitt emne, bestemmer deres frekvens. Deretter kombineres de samlede søkeordene i klasser (spørringsklystering). Senere på grunnlag av den semantiske kjernen (SIA), er artikler skrevet, noe som bidrar til å fremme ressursen din i søkemeldingen som ofte bruker en slik parser, det kalles nøkkelinnsamler. Hvis noen er interessert, ser du inn søkeord for å markedsføre nettstedet slik:
Eksempel parser nøkkel samler
  • Parrer for Site Revisjon Parser-programmet finner overskrifter og undertekster på sider, opptil 5-6 nivåer, beskrivelser, bilder med sine egenskaper og andre data som "returnerer" i form av ønsket tabell. En slik analyse bidrar til å sjekke nettstedet for overholdelse av kravene i søkemotorer (en slik sjekk er direkte relatert til fremme av ressursen på Internett, fordi jo bedre nettstedet er konfigurert, jo flere sjanser til å okkupere topplinjene i søk Resultater)

Eksempel parser for Instagram

Eksempel parser for Instagram

Svært ofte ser jeg forespørsler "Eksempel på en parser for Instagram" eller "Eksempel på en parser for sosiale nettverk", så la oss finne ut hva parseren betyr for sosiale nettverk, grupper og kontoer?

Hvis enklere, så er parseren for sosiale nettverk en assistent som bidrar til fremme av varer og tjenester. Det vil si at en slik parser lar deg samle inn brukerdata som de angir i sine kontoer eller grupper / publikum (vel, annen info) og i fremtiden, som selektivt viser dem annonsering.

Instagram har bare sitt eget unge, aktive og løsningsmiddel publikum, som annonsører ønsker å påvirke, så la oss bli mer mer detaljert på dette sosiale nettverket.

For å gjøre det lettere, la oss forstå hvor den vellykkede forfremmelsen av produktet i Instagram avhenger av:

  • Det riktige valget av målgruppen (målet om å finne de du kan være interessert i vårt produkt);
  • Rangering (sortering) Publikasjoner i brukerbåndet (slik at kontoinnehaveren ser vårt tilbud eller reklame)
  • Muligheten for å finne en post i søket (brukeren faller på vårt tilbud med sitt eget søk, ved hjelp av bestemte ord, setninger, kalt hashtags)

For å kunne fremme produktet, brukes en parser, som vil bidra til å samle inn informasjon om Instagram-brukere. Vi må sette sammen følgende informasjon:

  • Personlige data (i dette tilfellet er det absolutt lovlig, siden brukerne selv indikerer, for eksempel egne telefoner i profilen);
  • Bosetningen der de bor;
  • Hashtegi de feirer sine egne oppføringer;
  • Kontoer de er signert;
  • Publikasjoner som brukerne setter huskies på.
  • Og lignende ...

Basert på disse dataene kan du gjennomføre en bestemt jobb med brukere som vil bidra til å forbedre salget. Du er brukerne "Gi" de nødvendige varene de kan ha latt etter, og få inntektene dine.

Målgruppen for å fremme sine egne varer samles inn i 3 retninger:

  1. Av konkurrenter. Sannsynligvis er abonnentene i din direkte konkurrent, i tillegg til bots, falske og kommersielle kontoer, også interessert i produktet ditt.
  2. Av hashthegam. Du trenger publikasjoner som er merket med et stort antall liker og kommentarer og samtidig merket med ett eller flere tematiske ord eller kombinasjoner (hashtags) relatert til ditt råvare tilbud. Etter å ha samlet seg i en liste over brukere som setter disse publiseringslivet eller venstre kommentarer, får du et annet målgruppe.
  3. På bosetningen. En slik Parceng vil interessere seg for de som fremmer varer i spesifikke byer / bosetninger. I dette tilfellet vil parseren samle brukere som har plassert publikasjoner med geometri.

For å analysere i Instagram brukes selvinspeksjon og spesialprogrammer, samt online-tjenester. Videre samler noen av dem ikke bare informasjon, men forplikter seg også til visse handlinger - de setter likes, massivt abonner på nettsiden til brukerne og andre.

Blant parsene for Instagram er populære:

  • Zengram
  • Tooligram.
  • Instaplus.pro.
  • Instaparser.
  • INSTATURBO.

Et par flere par for eksempel

Som jeg sa, har parsers en stor mengde og de er laget for forskjellige nettsteder og oppgaver. For eksempel vil vi analysere et annet par parsers, slik at du har en fullstendig forståelse av denne sfæren.

For eksempel er det en blekere turboparser.ru - det regnes som en av de mest praktiske parsene som hjelper arrangørene til felles kjøp.

Denne tjenesten lar deg hvile:

  • hele katalogen eller delen av nettstedet i flere klikk;
  • En hvilken som helst side på leverandørens nettsted ved å trykke på SPECIAL-knappen;
  • Lag en parsing med inngangslinken til adresselinjen;
  • Lag en samling med en widget (separat element eller informasjonsblokk på nettstedet).

Blant de viktigste fordelene ved Turbo Positioner:

  • Automatisk oppdatering VK og OK;
  • Den største basen av støttede nettsteder (mer enn 50 tusen), inkludert ca 800 gratis;
  • Daglig teknisk støtte;
  • Sikkerhetsgaranti for dataene dine og kontoer på sosiale nettverk;
  • Enkel bruk, rask innstilling.

Mark separat jeg vil ha og grillic-parser.ru - også en parser. Hva er dette programmet? Generelt er dette den første gratis parseren med lignende funksjoner. For å dra nytte av det, bare registrer deg på nettstedet. Etter det kan du umiddelbart bruke nettstedet Funksjonalitet: Finn raskt en beskrivelse, bilde og egenskaper av de ønskede varene, opprett kataloger, løse ønsket nettsted. Rake-Parser har teknisk støtte både på lignende betalte ressurser.

Konklusjon

Ulike grupper av personer, inkludert eiere og siters nettsteder, private entreprenører, fremme sine varer i sosiale nettverk og spesielle applikasjoner, alle som ønsker å få en dynamisk informasjon, er interessert i å laste ned bestemte data fra Internett. Og det er nettopp en slik mulighet og gir "parsing". Hva disse er enkle ord vi lærte i dag. Det kom til den konklusjon at dette er et moderne verktøy som brukes til å søke etter de nødvendige dataene, med kompilering av den påfølgende rapporten i en form som er praktisk for oss.

Jeg håper at etter å ha lest artikkelen min, er du mer eller mindre funnet ut i temaet parsing og parsers. Vel, og på dette har jeg alt.

Som vanlig, hvis denne artikkelen var nyttig for deg - dele den i sosiale nettverk, vil det være den beste takk. Og hvis du har noe å legge til eller forblev, skriver jeg dristig i kommentarene.

30 + parsers å samle inn data fra et hvilket som helst nettsted

Desktop / Cloud, Betalt / GRATIS, for SEO, for felles shopping, for å fylle nettsteder, for å samle prisene ... i overflod av parsers du kan drukne.

Vi la ned alt rundt hyllene og samlet de mest intelligente parsingverktøyene - slik at du raskt og enkelt kan samle åpen informasjon fra et hvilket som helst nettsted.

Hvorfor trenger du parsers

Parseren er et program, en tjeneste eller et skript som samler data fra de angitte nettressursene, analyserer dem og problemer i ønsket format.

Med hjelp av parsers kan du lage mange nyttige oppgaver:

  • Prisene . Faktisk oppgave for nettbutikker. For eksempel, ved hjelp av parsing, kan du regelmessig spore prisene på konkurrenter for varene som selges fra deg. Eller oppdater priser på deres nettside i samsvar med prisene på leverandøren (hvis han har sitt eget nettsted).
  • Råvareposisjoner : titler, artikler, beskrivelser, egenskaper og bilder. For eksempel, hvis leverandøren har et katalogområde, men det er ingen lossing for butikken din, kan du utløse alle nødvendige posisjoner, og ikke legge dem manuelt. Det sparer tid.
  • Metadata. : SEO-spesialister kan analysere innholdet i tittelkoder, beskrivelse og andre metadata.
  • Nettstedsanalyse . Slik at du raskt kan finne sider med en feil 404, omdirigerer, ødelagte koblinger, etc.

For referanse . Det er fortsatt grå parsing. Dette inkluderer nedlasting av innhold av konkurrenter eller nettsteder helt. Eller samle kontaktdata fra aggregatorer og tjenester etter type Yandex.Cart eller 2GIS (for spam-post og samtaler). Men vi vil bare snakke om en hvit pakke, på grunn av hvilken du ikke vil ha problemer.

Hvor å ta en parser under oppgavene dine

Det er flere alternativer:

  1. Optimal - hvis det er en programmerer i staten (og enda bedre - flere programmerere). Sett oppgaven, beskriv kravene og få det ferdige verktøyet, skjerpet spesielt for oppgavene dine. Verktøyet kan utformes og forbedres om nødvendig.
  2. Bruk ferdige overskyet parser (det er både gratis og betalte tjenester).
  3. Desktop Parsers er vanligvis programmer med kraftig funksjonalitet og muligheten for fleksibel justering. Men nesten alle - betalt.
  4. Bestil utviklingen av en parser "for deg selv" fra selskaper som spesialiserer seg på utvikling (dette alternativet er tydeligvis ikke for de som vil lagre).

Det første alternativet er ikke egnet for alle, og det siste alternativet kan være for dyrt.

Når det gjelder de ferdige løsningene, er det mange av dem, og hvis du ikke har kommet over en pakke før, kan det være vanskelig å velge. For å forenkle valget, gjorde vi et utvalg av de mest populære og komfortable parsene.

Er dataene lovlig?

I lovgivningen i den russiske føderasjonen er det ikke noe forbud mot innsamlingen av åpen informasjon på Internett. Retten til å se ut og formidle informasjon på en hvilken som helst legitim måte i fjerde ledd 29 i grepets artikkel.

Anta at du trenger å feriestedene fra konkurrentens nettsted. Denne informasjonen er i det offentlige området, du kan gå til nettstedet selv, se og manuelt registrere prisen på hvert produkt. Og med hjelp av parsing, er du faktisk den samme, bare automatiserte.

Men hvis du vil montere personlige brukerdata og bruke dem til e-postmelding eller målrettet annonsering, vil den allerede være ulovlig (disse dataene er beskyttet av loven om personopplysninger).

Desktop og Cloud Parses

Sky parser

Den største fordelen med Cloud Passers - trenger ikke å laste ned noe og installere på datamaskinen. Alt arbeid er gjort "i skyen", og du laster bare ned resultatene av algoritmers arbeid. Slike parsers kan ha et webgrensesnitt og / eller API (nyttig hvis du vil automatisere data parsing og gjøre det regelmessig).

For eksempel, her er engelsktalende sky parses:

Fra russisk-talende sky parsere kan gis som:

Alle som er gitt ovenfor, kan testes i den frie versjonen. Sant, det er nok bare å vurdere de grunnleggende mulighetene og bli kjent med funksjonaliteten. Det er begrensninger i den frie versjonen: enten når det gjelder datalaping, eller på tid for å bruke tjenesten.

Desktop parser

De fleste desktop parsers er designet for Windows - de må lanseres fra virtuelle maskiner på MacOS. Noen parsers har også bærbare versjoner - du kan kjøre fra en flash-stasjon eller en ekstern stasjon.

Populære desktop parsers:

  • Parserok.
  • Datacol,
  • Skrikende frosk, sammenligning, netpeak edderkopp - Om disse verktøyene litt senere vil vi snakke mer.

Typer av parcers bruker teknologi

Nettleserutvidelser

For data-parsing er det mange nettleserutvidelser som samler de ønskede dataene fra kildekoden på sidene, og lar deg lagre i et praktisk format (for eksempel i XML eller XLSX).

Utvidelsesparsene er et godt alternativ hvis du trenger å samle små mengder data (fra ett eller et par sider). Her er de populære parsene for Google Chrome:

Add-in for Excel.

Programvare i form av en tillegg for Microsoft Excel. For eksempel, Parserok. Makroer brukes i slike parsers - partene blir straks losset i XLS eller CSV.

Google Tables

Med to enkle formler og Google-tabeller kan du samle inn data fra nettsteder gratis.

Disse formlene: Importxml og importhtml.

Importxml.

Funksjonen bruker XPath Query Language, og lar deg sende data fra XML-feeder, HTML-sider og andre kilder.

Slik ser funksjonen ut som:

ImportXML ("https://site.com/catalog"; "// a / @ href") 

Funksjonen tar to verdier:

  • Henvisning til en side eller feed som du trenger for å få data;
  • Den andre verdien er en XPath-forespørsel (en spesiell forespørsel som indikerer hvilket element med data som må gnister).

Den gode nyheten er at du ikke trenger å studere XPath Query Syntax. For å få en XPath-spørring for et dataelement, må du åpne utviklerverktøyene i nettleseren, klikk Høyreklikk på ønsket element og velg: Kopier → Kopier XPath .

30 + parsers å samle inn data fra et hvilket som helst nettsted

Bruke ImportXML, kan du samle nesten alle data fra HTML-sider: overskrifter, beskrivelser, meta-tagger, priser, etc.

Importhtml.

Denne funksjonen har færre funksjoner - med sin hjelp kan du samle inn data fra tabeller eller lister på siden. Her er et eksempel på den importhtml-funksjonen:

Importhtml ("https: // https: //site.com/catalog/sweets"; "tabell"; 4) 

Det tar tre betydninger:

  • En lenke til siden du vil samle inn data på.
  • Elementparameteren som inneholder de nødvendige dataene. Hvis du vil samle inn informasjon fra bordet, spesifiser "Tabell". For lister parsing - parameteren "Liste".
  • Tallet er sekvensnummeret til elementet i sidekoden.
Om å bruke 16 Google-tabeller funksjoner for SEO formål. Les i vår artikkel. Her er alt beskrevet i svært detaljert, med eksempler for hver funksjon.

Typer av parsers på applikasjoner

For arrangører av joint venture (felles shopping)

Det er spesialiserte parsers for felles kjøp arrangører (SP). De er installert på sine nettsteder produsenter av varer (for eksempel klær). Og alle kan dra nytte av parseren direkte på nettstedet og loss hele spekteret.

Jo mer komfortable disse parsene:

  • intuitivt grensesnitt;
  • evnen til å laste opp individuelle varer, seksjoner eller hele katalogen;
  • Du kan laste ned data i et praktisk format. For eksempel er et stort antall lossingsformater tilgjengelig i en sky parser, bortsett fra standard XLSX og CSV: tilpasset pris for TIU.RU, lossing for Yandex.market, etc.

Populære parister for SP:

Parserpriser på konkurrenter

Verktøy for nettbutikker som ønsker å regelmessig spore prisene på konkurrenter til lignende varer. Ved hjelp av slike parsers kan du spesifisere lenker til konkurrenteressurser, sammenligne sine priser med din og justere om nødvendig.

Her er tre slike verktøy:

Parser for raske fyllingssteder

Slike tjenester samler navnene på varer, beskrivelser, priser, bilder og andre data fra donor nettsteder. Løsne dem deretter til en fil eller lastes ned på nettstedet ditt. Det akselererer vesentlig arbeidet med innholdet på nettstedet og lagrer massen av tiden du vil bruke på manuell fylling.

I slike parsers kan du automatisk legge til markeringen din (for eksempel hvis du analyserer data fra leverandørens nettsted med engrospriser). Du kan også konfigurere automatisk samling eller oppdatering av tidsplandataene.

Eksempler på slike parsers:

Parsers for SEO-spesialister

En egen kategori av parsers - smalt eller multifunksjonelle programmer som er opprettet spesielt under løsningen av SEO-spesialisters oppgaver. Slike parsers er utformet for å forenkle en omfattende analyseoptimaliseringsanalyse. Med deres hjelp kan du:

  • Analyser innholdet i robots.txt og sitmap.xml;
  • Kontroller tilgjengeligheten av tittel og beskrivelse på sidesidene, analyser lengden, samle overskrifter på alle nivåer (H1-H6);
  • sjekk side svar koder;
  • samle og visualisere strukturen på nettstedet;
  • Kontroller tilstedeværelsen av beskrivelser av bilder (Alt-attributt);
  • analysere interne overløp og eksterne referanser;
  • Finn ødelagte linker;
  • og mye mer.

La oss gå gjennom flere populære partnere og vurdere deres hovedtrekk og funksjonalitet.

Koste: De første 500 forespørslene er gratis. Verdien av påfølgende forespørsler avhenger av mengden: opptil 1000 - 0,04 rubler / forespørsel; fra 10.000 - 0,01 rubler.

Muligheter

Ved hjelp av metategier og overskrifter Parser, kan du samle H1-H6-overskrifter, samt innholdet i tittel, beskrivelse og søkeord-koder fra dine egne eller andres nettsteder.

Verktøyet er nyttig når du optimaliserer nettstedet. Med det kan du oppdage:

  • sider med tom metategi;
  • ikke-informative overskrifter eller feilhoder;
  • Metater duplikat, etc.

Parseren er også nyttig når man analyserer SEO-konkurrenter. Du kan analysere, under hvilke søkeord konkurrenter optimalisere sidene på deres nettsteder, som er foreskrevet i tittel og beskrivelse, som overskrifter form.

30 + parsers å samle inn data fra et hvilket som helst nettsted

Tjenesten fungerer "i skyen". For å starte arbeidet må du legge til en URL-liste og angi hvilke data du må gnistrere. Nettadressen kan legges til manuelt, laster ned XLSX-tabellen med listen over sideadresser, eller sett inn en lenke til nettstedskartet (Sitemap.xml).

Arbeide med verktøyet er beskrevet i detalj i artikkelen "Slik samler du Meta-tagger og overskrifter fra et hvilket som helst nettsted?".

Metater og på vei parser er ikke det eneste promopult verktøyet for parsing. I SEO-Modul kan du lagre søkeordene gratis som nettstedet er lagt til i systemet, tar topp 50 i Yandex / Google.

30 + parsers å samle inn data fra et hvilket som helst nettsted

Her på "Ordene i dine konkurrenter" -fanen kan du laste ut søkeordene til konkurrenter (opptil 10 nettadresse om gangen).

30 + parsers å samle inn data fra et hvilket som helst nettsted

Detaljer om arbeid med nøkkelparsing i Promopult SEO-modulen her.

Koste: Fra $ 19 per måned er det en 14-dagers prøveperiode.

Parser for integrerte nettsteder analyse. Med Netpeak Spider kan du:

  • Gjennomfør en teknisk revisjon av nettstedet (oppdag ødelagte koblinger, kontroller sidene på sidene, finn en duplikat, etc.). Parseren lar deg finne mer enn 80 nøkkelfeil intern optimalisering;
  • Analyser de viktigste SEO-parametrene (File Robots.txt, analyser strukturen på nettstedet, kontroller omdirigeringene);
  • Pousize data fra nettsteder ved hjelp av vanlige uttrykk, XPath spørringer og andre metoder;
  • Netpeak Spider kan også importere data fra Google Analytics, Yandex.Metrics og Googles søkekonsoll.
30 + parsers å samle inn data fra et hvilket som helst nettsted

Koste: Året lisensen er 149 pund, det er en gratis versjon.

Multifunksjonell verktøy for SEO-spesialister, egnet for å løse nesten alle SEO-oppgaver:

  • Søk etter ødelagte linker, feil og omadressekter;
  • analyse av meta tags sider;
  • Søk etter et par sider;
  • generasjon av sitemap.xml filer;
  • visualisering av nettstedstrukturen;
  • og mye mer.
30 + parsers å samle inn data fra et hvilket som helst nettsted

En begrenset funksjonalitet er tilgjengelig i den frie versjonen, så vel som det er grenser på antall nettadresser for analysen (du kan hælde totalt 500 nettadresser). Det er ingen slike grenser i den betalte versjonen av slike grenser, samt flere muligheter tilgjengelig. For eksempel kan du analysere innholdet på noen sider (priser, beskrivelser, etc.).

I detalj hvordan å bruke skrikende frosk, skrev vi i artikkelen "Parsing av ethvert nettsted" for tekanne ": verken linjen i programkoden."

Koste: 2000 rubler for 1 lisens. Det er en demoversjon med restriksjoner.

En annen desktop parser. Med det kan du:

  • Analyser tekniske feil på nettstedet (404 feil, tittel duplikat, interne omadresser, lukket fra sideindeksering, etc.);
  • Finn ut hvilke sider som ser søkobroen når du skanner nettstedet;
  • Sammenligningens hovedchip - Yandex og Google Parsing, lar deg finne ut hvilke sider som er i indeksen, og som de ikke kom inn i den.
30 + parsers å samle inn data fra et hvilket som helst nettsted

Koste: Betalt service, minimumsrenten er 990 rubler per måned. Det er en 7-dagers prøveperiode med full tilgang til funksjonaliteten.

Online Service for SEO-analyse nettsteder. Tjenesten analyserer nettstedet med en detaljert liste over parametere (70 + poeng) og danner en rapport der:

  • Oppdaget feil;
  • Feilkorreksjonsalternativer;
  • SEO-sjekkliste og råd om å forbedre nettstedet optimalisering.
30 + parsers å samle inn data fra et hvilket som helst nettsted

Koste: Betalt cloud service. To betalingsmodeller er tilgjengelige: Månedlig abonnement eller kontroll for verifisering.

Kostnaden for minimumsprisen er $ 7 per måned (når du betaler for et årlig abonnement).

Muligheter:

  • skanner alle sider på nettstedet;
  • Analyse av tekniske feil (redaktørens innstillinger, korrektheten av kabinene kanoniske og hreflang, kontrollere dobler, etc.);
  • Søke etter sider uten tittel og beskrivelse Meta Tags, definere sider med for lange koder;
  • sjekker side nedlastingshastigheter;
  • Analyse av bilder (søk etter ikke-fungerende bilder, kontrollerer tilstedeværelsen av fylte attributter alt, søk etter "tunge" bilder som senker siden lasting);
  • Analyse av interne referanser.
30 + parsers å samle inn data fra et hvilket som helst nettsted

Koste: er gratis.

Desktop Parser for Windows. Brukes til å analysere alle nettadresser som er på nettstedet:

  • referanser til eksterne ressurser;
  • Interne referanser (transfine);
  • Lenker til bilder, skript og andre interne ressurser.

Det brukes ofte til å søke etter ødelagte koblinger på nettstedet.

30 + parsers å samle inn data fra et hvilket som helst nettsted

Koste: Betalt program med levetidslisens. Minste tariffplanen er $ 119, maksimum - $ 279. Det er en demoversjon.

Multifunksjonell SEO-kombinere, kombinere 70 + forskjellige parser, skjerpet under ulike oppgaver:

  • søkeord parsing;
  • Data Parsing med Yandex og Google Maps;
  • Overvåking av nettstedstillinger i søkemotorer;
  • Parsing av innholdet (tekst, bilder, video), etc.

I tillegg til settet med ferdige verktøy, kan du lage din egen parser ved hjelp av vanlige uttrykk, Xpath eller JavaScript-forespørsler. Det er tilgang via API.

30 + parsers å samle inn data fra et hvilket som helst nettsted

Sjekkliste for å velge en parser

En kort sjekkliste som vil bidra til å velge det mest egnede verktøyet eller tjenesten.

  1. Tydelig avgjøre hvilke oppgaver du trenger en parser: Analyse av SEO-konkurrenter eller prisovervåking, datainnsamling for å fylle katalogen, ta stillinger etc.
  2. Bestem hvilken mengde data og i hvilken form du må motta.
  3. Bestem hvor ofte du trenger å samle inn data: engang eller en bestemt frekvens (en gang om dagen / uken / måneden).
  4. Velg flere verktøy som passer for å løse oppgavene dine. Prøv demo-versjonen. Finn ut om teknisk støtte er gitt (det er tilrådelig å til og med teste det - å sette et par spørsmål og se hvor raskt du vil motta et svar og hvor mye det vil være uttømmende).
  5. Velg den mest passende tjenesten for pris / kvalitetsforhold.

For store prosjekter hvor du trenger å analysere store mengder data og lage komplisert behandling, kan det være mer lønnsomt å utvikle din egen parser for bestemte oppgaver.

For de fleste prosjekter vil det være nok standardløsninger (kanskje du kan ha en ganske gratis versjon av noen av parseren eller prøveperioden).

For å støtte informasjon om ressursen din oppdatert, fyll inn katalogen av varer og strukturere innholdet, er det nødvendig å bruke en mengde tid og styrke. Men det er verktøy som gir deg mulighet til å redusere kostnadene betydelig og automatisere alle prosedyrer knyttet til søket etter materialer og eksport av dem i ønsket format. Denne prosedyren kalles en parsing.

La oss finne ut hva en parser er og hvordan det fungerer.

Hva parsing?

La oss starte med definisjonen. Parsing er en metode for indekseringsinformasjon, etterfulgt av å konvertere den til et annet format eller til og med annen datatype.

Datapakken

Parsing lar deg ta en fil i ett format og konvertere sine data til en mer tillatt skjema som du kan bruke til dine egne formål. For eksempel kan du ha en HTML-fil ved hånden. Ved hjelp av parsing kan informasjon i den forvandles til "naken" tekst og gjøre det klart for mennesker. Eller konverter til JSON og gjør det klart for søknaden eller skriptet.

Men i vårt tilfelle vil deltakere passe en smalere og nøyaktig definisjon. La oss ringe til denne prosessen ved hjelp av databehandling på nettsider. Det innebærer analysen av teksten, utmattende derfra nødvendige materialer og transformasjon til en egnet form (den som kan brukes i samsvar med målene). Takket være deltakere kan du finne små blokker med nyttig informasjon på sidene og i den automatiske modusen derfra for å trekke dem ut for å gjenbruke.

Vel, hva er en parser? Fra navnet er det klart at vi snakker om et verktøy som utfører parsing. Det ser ut til at denne definisjonen er nok.

Hvilke oppgaver bidrar til å løse parseren?

Hvis ønskelig, kan parseren bli bedt om å finne og trekke ut all informasjon fra nettstedet, men det finnes en rekke retninger der denne typen verktøy brukes oftest:

  1. Prisovervåking. For eksempel, for å spore endringer i verdien av varer på konkurrenter. Kan parse Å justere det på din ressurs eller tilby kundene en rabatt. Price Parser brukes også til å realisere kostnadene for varer i samsvar med dataene på leverandørens nettsteder.
  2. Søk etter råvareposisjoner. Nyttig alternativ for saken hvis leverandørens nettsted ikke tillater deg å raskt og automatisk overføre databasen med varer. Du kan dele informasjon om nødvendige kriterier og overføre den til nettstedet ditt. Du trenger ikke å kopiere data om hver manuell vareenhet.
  3. Fjerner metadata. SEO-Promotion Specialists bruker parser for å kopiere innholdet i tittelen, Beskrivelse Tags fra konkurrenter, etc. Parsing nøkkelord - En av de vanligste metodene for å revidere andres nettsted. Det bidrar til å raskt gjøre de nødvendige endringene i SEO for akselerert og den mest effektive ressursfremmelsen.
  4. Revisjonsforbindelser. Parsers bruker noen ganger å finne problemer på siden. Webmastere setter dem opp under søket etter bestemte feil og kjører slik at i automatisk modus for å identifisere alle ikke-fungerende sidene og koblingene.

Parser kot.

GRAY PARCEL.

Denne metoden for å samle informasjon er ikke alltid tillatt. Nei, "svarte" og helt forbudte teknikker eksisterer ikke, men for noen formål anses bruken av parsers ansettet uærlig og uetisk. Dette gjelder for kopiering av hele sider og til og med nettsteder (når du deler dataene til konkurrenter og henter all informasjon fra ressursen samtidig), samt aggressiv samling av kontakter fra nettsteder for å legge ut tilbakemelding og kartografiske tjenester.

Men poenget er ikke i pakken som sådan, men i hvordan webansvarlige styres av det gruveinnholdet. Hvis du bokstavelig talt "stjeler" andres nettsted og automatisk gjør det til en kopi, kan eierne av den opprinnelige ressursen ha spørsmål, fordi ingen har kansellert opphavsrett. For dette kan du pådra deg en ekte straff.

Antallet og adressene som produseres ved parsing, brukes til spam-post og samtaler, som faller under loven om personopplysninger.

Hvor finner man en parser?

Du kan få et verktøy for å søke og konvertere informasjon fra nettsteder med fire måter.

  1. Bruker kreftene i deres lagutviklere. Når det er programmerere i staten som kan skape en parser tilpasset selskapets oppgaver, bør du ikke lete etter andre alternativer. Dette vil være det beste alternativet.
  2. Leie utviklere fra siden for å skape et verktøy på dine krav. I dette tilfellet vil det være mange ressurser for etableringen av TK og betaling av arbeid.
  3. Installer den ferdige parseren på datamaskinen. Ja, det vil også koste penger, men de kan brukes med en gang. Og parameterinnstillinger i slike programmer lar deg nøyaktig justere parsing-skjemaet.
  4. Bruk en webtjeneste eller nettleserplugin med lignende funksjonalitet. Det er gratis versjoner.

I fravær av utviklere i staten, vil jeg råde nøyaktig et skrivebordsprogram. Dette er den perfekte balansen mellom effektivitet og kostnader. Men hvis oppgaver ikke er for kompliserte, kan det være nok for cloud service.

Parsing fordeler

I den automatiske innsamlingen av informasjon, en rekke fordeler (sammenlignet med den manuelle metoden):

  • Programmet fungerer uavhengig. Du trenger ikke å bruke tid på å søke og sortere data. I tillegg samler hun informasjon mye raskere enn mannen. Ja, og gjør det 24 til 7, om nødvendig.
  • Parser kan "heve" så mange parametere som kreves, og i tillegg gjenoppbygge den for å søke bare det nødvendige innholdet. Uten søppel, feil og irrelevant informasjon fra uegnede sider.
  • I motsetning til en person, vil parseren ikke tillate dumme feil ved uoppmerksomhet. Og det blir ikke sliten.
  • Parsingverktøyet kan sende inn dataene som finnes i et praktisk format på brukerforespørselen.
  • Parsers kan kompetanse distribuere lasten på nettstedet. Dette betyr at han ved et uhell "faller" en utenlandsk ressurs, og du vil ikke bli anklaget for ulovlig DDOS-angrep.

Så det er ikke noe poeng i "Poule" med hendene dine når du kan betro denne operasjonen med en passende programvare.

Cons parsing.

Den viktigste mangelen på parsers er at de ikke alltid er mulige å bruke. Spesielt når eiere av andres nettsteder forbyder automatisk innsamling av informasjon fra sider. Det er flere metoder for å blokkere tilgangen til parsers samtidig: både av IP-adresser, og ved hjelp av innstillingene for søkemotorer. Alle er effektivt beskyttet mot parsing.

I minusene i metoden kan konkurrentene også bruke den. For å beskytte nettstedet fra parsing, må du ty til en av teknikkene:

  • enten blokkere forespørsler fra siden ved å spesifisere de aktuelle parametrene i robots.txt;
  • Enten satt opp en capping - for å trene parseren for å løse bilder for dyrt, vil ingen gjøre det.

Men alle forsvarsmetoder er lett å koste, derfor, mest sannsynlig, det må sette opp med dette fenomenet.

Algoritme av arbeidet med parser

Parseren fungerer som følger: Det analyserer siden for tilstedeværelsen av innhold som tilsvarer de forutbestemte parametrene, og deretter trekker det ut ved å slå seg til systematiserte data.

Prosessen med å jobbe med verktøyet for å søke og trekke ut den funnet informasjonen ser slik ut:

  1. For det første angir brukeren de innledende dataene for parsing på nettstedet.
  2. Indikerer deretter en liste over sider eller ressurser som du vil søke på.
  3. Deretter gjennomfører programmet automatisk en dyp analyse av det funnet innholdet og systematiserer det.
  4. Som et resultat mottar brukeren en rapport i et forutbestemt format.

Naturligvis beskrives parsingprosedyren gjennom spesialisert programvare bare generelt. For hvert verktøy vil det se annerledes ut. Også, prosessen med å arbeide med parseren er påvirket av målene som er forfulgt av brukeren.

Slik bruker du en parser?

I begynnelsen er parsingen nyttig for å analysere konkurrenter og utvalg av informasjon som er nødvendig for sitt eget prosjekt. I det fremtidige perspektivet brukes parsers å aktualisere materialer og revisjonssider.

Når du arbeider med parseren, er hele prosessen bygget rundt de angitte parametrene for å søke og fjerne innholdet. Avhengig av hvordan formålet er planlagt å bli planlagt, vil det være finhet i definisjonen av innledningen. Du må tilpasse søkeinnstillingene for en bestemt oppgave.

Noen ganger vil jeg nevne navnene på sky eller desktop parsers, men det er nødvendig å bruke dem. Korte instrukser i dette avsnittet vil være egnet for nesten hvilken som helst programvare parser.

Online Store Parsing.

Dette er de vanligste script-bruksverktøyene til å automatisk samle inn data. I denne retningen løses to oppgaver vanligvis på en gang:

  1. Aktualisering av informasjon om prisen på en bestemt vareenhet,
  2. Parsing katalog av varer fra steder av leverandører eller konkurrenter.

I det første tilfellet bør du bruke verktøyet MarketParser. Spesifiser produktkode i den og lar deg samle den nødvendige informasjonen fra de foreslåtte nettstedene. Det meste av prosessen vil strømme på maskinen uten brukerintervensjon. For å øke effektiviteten av informasjonsanalyse, er det bedre å redusere prisene på søkeområdet bare av varer av varer (du kan begrense søket til en bestemt gruppe varer).

I andre tilfelle må du finne produktkoden og spesifisere den i et parser-program. Spesielle applikasjoner bidrar til å forenkle oppgaven. For eksempel, CatalogLoader. - Parser spesielt opprettet for å automatisk samle inn data på produkter i nettbutikker.

Parsing andre nettsted deler

Prinsippet om å søke etter andre data er praktisk talt ikke forskjellig fra parcelpriser eller adresser. Først må du åpne et verktøy for å samle inn informasjon, angi koden til de ønskede elementene og kjøre parsingen.

Forskjellen ligger i den primære innstillingen. Når du skriver inn parametere for å søke, må du spesifisere programmet som gjengir utføres ved hjelp av JavaScript. Det er for eksempel nødvendig å analysere artikler eller kommentarer som vises på skjermen bare når du ruller siden. Parseren vil forsøke å simulere denne aktiviteten når du slår på innstillingen.

Parsing brukes også til å samle inn data på strukturen på nettstedet. Takket være elementene i breadcrumbs, kan du finne ut hvordan konkurrenter ressurser er ordnet. Det hjelper nybegynnere når du organiserer informasjon om eget prosjekt.

Gjennomgang av de beste parsene

Deretter vurdere de mest populære og krevde programmene for skanningssider og trekke ut de nødvendige dataene fra dem.

I form av Cloud Services

Under sky parses, er nettsteder og applikasjoner ment der brukeren går inn i instruksjoner for å finne spesifikk informasjon. Derfra faller disse instruksjonene på serveren til selskaper som tilbyr parceration Services. Deretter vises informasjonen som finnes på samme ressurs.

Fordelen med denne skyen er fraværet av behovet for å installere tilleggsprogramvare på datamaskinen. Og de har ofte en API, som lar deg tilpasse oppførselen til parseren under dine behov. Men innstillingene er fortsatt merkbart mindre enn når du arbeider med en fullverdig parser-applikasjon for PC.

Den mest populære skyen parses

  • Importere.io. - Overlevde sett med verktøy for å finne informasjon om ressurser. Lar deg analysere et ubegrenset antall sider, støtter alle populære datautgangsformater og oppretter automatisk en praktisk struktur for å oppleve den ekstraherte informasjonen.
  • Mozenda. - Nettsted for å samle inn informasjon fra nettsteder som stoler på store selskaper i Tesla-ånden. Samler eventuelle datatyper og konverterer til ønsket format (enten JSON eller XML). De første 30 dagene kan brukes gratis. Mozenda.
  • Octopars. - Parser, den største fordelen med hvilken er enkelheten. For å mestre det, trenger du ikke å studere programmering og i det minste tilbringe litt tid til å jobbe med koden. Du kan få den nødvendige informasjonen i et par klikk.
  • Parsehub. - En av de få fullt frie og ganske avanserte parsene.

Lignende tjenester på nettet mye. Dessuten, både betalt og gratis. Men ovennevnte brukes oftere enn andre.

I form av dataprogrammer

Det er desktop versjoner. De fleste av dem jobber bare på Windows. Det vil si å kjøre på MacOS eller Linux, du må bruke virtualiseringsverktøy. Enten last ned den virtuelle maskinen med Windows (relevant i tilfelle av Apple-operativsystemet), eller installer vinverktøyet (relevant i tilfelle av Linux-distribusjon). Sannt, på grunn av dette, vil en kraftigere datamaskin bli pålagt å samle inn data.

Mest populære Desktop Parsers

  • Parserok. - En applikasjon fokusert på ulike typer dataparsing. Det er innstillinger for å samle inn data om kostnaden for varer, innstillinger for automatisk kompilering av kataloger med varer, tall, e-postadresser, etc.
  • Datacol. - Universal Parser, som ifølge utviklere kan erstatte løsningene av konkurrenter i 99% av tilfellene. Og han er enkel i mastering. Datacol.
  • Skrikende frosk - Kraftig verktøy for SEO-spesialister, som lar deg samle en rekke nyttige data og gjennomføre en ressursrevisjon (finn ødelagte koblinger, datastruktur, etc.). Du kan analysere opptil 500 lenker gratis.
  • Netspeak edderkopp. - Et annet populært produkt som utfører automatiske nettsteddeltakere og hjelper til med å utføre SEO-revisjon.

Dette er de mest ettertraktede verktøyene for parsing. Hver av dem har en demoversjon for å verifisere muligheter før du kjøper. Gratis løsninger er merkbart verre i kvalitet og er ofte dårligere enn til og med skygtjenester.

I form av nettleserutvidelser

Dette er det mest praktiske alternativet, men samtidig den minste funksjonelle. Utvidelser er gode fordi de tillater deg å starte en parsing direkte fra nettleseren, som er på siden, hvor du trenger å trekke ut dataene. Du trenger ikke å skrive inn en del av parametrene manuelt.

Men tillegg til nettlesere har ikke slike muligheter som stasjonære applikasjoner. På grunn av mangelen på de samme ressursene som PC-programmene kan bruke, kan utvidelse ikke samle slike store mengder data.

Men for rask analyse av data og eksporterer en liten mengde informasjon i XML, er slike tillegg egnet.

Mest populære Parser-utvidelser

  • Parsers. - Plugin for å trekke ut HTML-data fra nettsider og importere dem til XML eller JSON-format. Utvidelsen starter på en side, ønsket automatisk lignende sider og samler lignende data fra dem.
  • Skrape - Samler informasjon i automatisk modus, men begrenser mengden data samlet.
  • Data Scraper. - Supplement, i automatisk modus som samler data fra siden og eksporterer dem til et Excel-tabell. Opptil 500 nettsider kan skannes gratis. For mer må betale månedlig. Data Scraper.
  • Kimono. - Forlengelse som gjør en hvilken som helst side til en strukturert API for å trekke ut de nødvendige dataene.

I stedet for fengsel

På dette og avslutt artikkelen om parsing og måter å implementere det på. Dette bør være nok til å komme i gang med parsers og samle inn informasjon som trengs for å utvikle prosjektet ditt.

Tenk deg at du er engasjert i aktivt salg gjennom nettbutikken din. Å plassere manuelt et stort antall kort er en ganske arbeidskrevende prosess, og det vil ta mye tid. Tross alt vil det være nødvendig å samle all informasjon, prosess, remake og score kort. Derfor anbefaler vi deg å lese vår artikkel om hva en blekere er og hvordan det fungerer i dette området, forenkler deg.

Hva er en parser og hvordan det fungerer

Site Parser: Hva er dette programmet?

Mange vil være interessert i å vite hva dette er programmet "parser nettsted". Det brukes til å behandle og samle inn data, konvertere dem videre til det strukturerte formatet. Vanligvis bruker parseren til å jobbe med tekster.

Hva er en parser og hvordan det fungerer

Programmet lar deg skanne fyllingen av nettsider, ulike resultater av utstedende søkemotorer, tekst, bilder og mange opplysninger. Med det kan du identifisere en stor mengde kontinuerlig oppdaterte verdier. Dette vil legge til rette for arbeid, så vel som en løsning Tilpass Yandex Direct-kampanjen Å øke omsetningen og tiltrekke seg kunder.

Hva gjør parseren?

Svar på spørsmålet som parseren gjør ganske enkelt. Mekanismen i samsvar med programmet kontrolleres av et bestemt sett med ord med det som ble funnet på Internett. Ytterligere handlinger om mottatt informasjon vil bli satt på kommandolinjen.

Hva er en parser og hvordan det fungerer

Det er verdt å merke seg at programvaren kan ha forskjellige presentasjonsformater, design stylistikk, tilgjengelighet, språk og mer. Her som i. Tariffer kontekstuell annonsering Det er et stort antall mulige variasjoner.

Arbeidet forekommer alltid i flere stadier. Første søk etter informasjon, last ned og last ned. Deretter ekstraheres verdiene fra VEB-sidekoden slik at materialet er skilt fra sidekoden. Som et resultat er en rapport dannet i samsvar med de angitte kravene direkte til databasen eller lagret i tekstfilen.

Site Parser gir mange fordeler når du arbeider med data arrays. For eksempel er den høye hastigheten på behandlingsmaterialer og deres analyse selv i en stor mengde. Også automatiserer utvalgsprosessen. Imidlertid påvirker fraværet av innholdet negativt SEO.

Feil parser XML: Hva er det?

Noen ganger møter brukere av dette programmet XML-parserfeilen. Hva betyr dette, nesten ingen vet. I utgangspunktet er problemet at forskjellige versjoner av XML-syntaksanalysatoren brukes, når man er strengt annerledes.

Hva er en parser og hvordan det fungerer

Det er også sannsynlig å ha en ikke nøyaktig kopi av filen. Se nøye på hvordan filer kopieres og vær oppmerksom på hvordan MD5 to filene tas, enten det er det samme. Snakke om Hva er enkle ord nemine Det er som å si de mulige problemene i dette programmet.

I slike tilfeller er det eneste som kan gjøres, å sjekke strengen 1116371. Ovennevnte program på C # vil vise denne strengen, og du kan endre UTF-8-kodingen.

Hvorfor trenger du en parser?

Du kan snakke mye om hva en parser trenger. Dette og alle slags utvinning av kontaktinformasjon når du utvikler en base av potensielle kunder. Så søket direkte på det i sin egen webressurs. I dette tilfellet vil ingen eksterne referanser bli funnet, men søket er drevet av brukeren.

Hva er en parser og hvordan det fungerer

Behovet for programmet oppstår når du samler Linksseo-koblinger. De vet alle Hva er språket i søkespørsmål Og hvordan det reflekteres i sitt arbeid. De bruker en parser for å evaluere antall koblinger og referansressurser.

Når du vil jobbe med et stort antall referanser, er parseren et uunnværlig verktøy i optimalisering. Det vil samle informasjon uten problemer og drikke den i en praktisk form.

Cloud Parser: Hva er det?

Mange vil være interessert i å lære at The Cloudy Parser er et program for å automatisere behandling av informasjon, som det ikke er nødvendig for å laste ned noe i tillegg. Alt vil skje i skyen. Det vil være nok å få tilgang til Internett og en moderne telefon.

Hva er en parser og hvordan det fungerer

Wide Application er tilgjengelig på nettbutikker, hvor programmet brukes til å kopiere informasjon om tittelen, prisen, etc. Mange avanserte gründere styres med deres hjelp, også analyserer konkurrenternes prispolitikk.

Det er verdt å merke seg at det bestemmer seg for å bruke denne måten for å forenkle arbeidet, må du spørre Hvor å begynne å gjennomføre en videoblogg Angående dette emnet. Så du kan øke publikum og gå til et nytt nivå av salg, hvis du vil.

Hva er en parser turbo?

Det vil ikke være overflødig å finne ut hva Turbo Parser er. Denne tjenesten er gratis for alle. Nyt arrangørene av felles kjøp, da det tillater dem å trekke seg av varene fra leverandørbutikken. Samtidig kan de automatisk lastes ut i sosiale nettverk og laste ned XLS og CVS-format.

Hva er en parser og hvordan det fungerer

Tjenesten er kjent for sin store database med støttende nettsteder. Samtidig er det en rask teknisk støtte av kvalifiserte spesialister. Også hastigheten på parseren er ganske rask. I tillegg er den fulle sikkerheten til alle disse dataene garantert. Du kan for alltid glemme ham, Hva betyr eksterne lenker Og hva er arbeidet med dem, og mister en stor tid.

Hva er parsene for sosiale nettverk?

Til slutt vurderer du hva parsers er for sosiale nettverk. Alle vet at det er der at det er en høy konsentrasjon av mennesker, hvor nesten alle nødvendige data er angitt.

Hva er en parser og hvordan det fungerer

På sidene viser brukerne alder, region, bosted. Alt dette vil bidra til å spare en masse tid for samfunnsforskning, meningsmålinger, etc. På din hånd vil du spille ennå hvis du vet det Slik legger du til et nettsted i Yandex webmaster Å forbedre arbeidseffektiviteten.

Så, ved hjelp av en parser, kan du sortere folket ved kriteriene for deg selv på et øyeblikk. For eksempel, velg de som er signert på visse samfunn eller noen, forventes en slags begivenhet som et bryllup, barnefødsel. Allerede valgte publikum kan tilby sine tjenester eller varer.

Parsing er et effektivt verktøy for å jobbe med databehandling. Med det kan du spare mye tid og bruke den på viktigere ting. Hva synes du om det?

Forfatter__photo.

Hva slags datapakke bør kjenne hver eier av nettstedet, planlegger å utvikle seg alvorlig i virksomheten. Dette fenomenet er så vanlig som før eller senere kan noen støte på pakken. Enten som en kunde av denne operasjonen, eller som en person som eier et objekt for å samle inn informasjon, det vil si ressursen på Internett.

En negativ holdning observeres ofte i det russiske forretningsmiljøet. Ifølge prinsippet: Hvis dette ikke er ulovlig, er det definitivt umoralsk. Faktisk kan hvert selskap trekke ut mange fordeler fra sin kompetente og taktfulle bruk.

Våre produkter hjelper virksomheten din til å optimalisere markedsføringskostnadene.

Lære mer

Hva er parsing.

Verb "Å analysere" I den bokstavelige oversettelsen betyr det ikke noe dårlig. Lag en grammatikkparsing eller struktur - nyttige og nødvendige handlinger. På språket til alle de som jobber med data på nettsteder, har dette ordet sin egen skygge.

Pousitive - samle og systematiser informasjon lagt ut på bestemte nettsteder ved hjelp av spesielle programmer som automatiserer prosessen.

Hvis du noen gang har lurt på hva en site parser er, så er han svaret. Dette er programvareprodukter, hvor hovedfunksjonen er å oppnå de nødvendige data som tilsvarer de angitte parametrene.

Om å bruke pakke

Etter å ha funnet ut hva slags parsing, kan det virke som om dette er noe som ikke oppfyller normer i gjeldende lovgivning. Faktisk er det ikke. Loven blir ikke forfulgt av parsing. Men forbudt:

  • bryte nettstedet (det vil si, å skaffe disse personlige kontoene til brukere, etc.);
  • Ddos- angrep (hvis på stedet som følge av data parsing ligger for høy belastning);
  • Lån av forfatterens innhold (bilder med opphavsrett, unike tekster, autentisiteten som er sertifisert av notarius, etc. Det er bedre å forlate på deres rettmessige sted).

Parsing er legitimt hvis det gjelder innsamling av informasjon i åpen tilgang. Det er alt som kan og så samle manuelt.

Parsers tillater deg bare å øke prosessen og unngå feil på grunn av menneskelig faktor. Derfor legger "illegitlation" i prosessen de ikke legger til.

En annen ting som eieren av den ferske pubertetebasen bestiller slik informasjon. Ansvaret kan komme nettopp for påfølgende handlinger.

Hva trenger du en pakke

Hva et malingsted er funnet ut. Gå til det du kanskje trenger det. Det er et bredt omfang for handling.

Hovedproblemet med det moderne Internett er et overskudd av informasjon som en person ikke kan systematisere manuelt.

Parsing brukes til:

  • Prispolitikkanalyse. For å forstå gjennomsnittlig verdi av visse varer på markedet, er det praktisk å bruke data om konkurrenter. Men hvis dette er hundrevis og tusenvis av stillinger, er det ganske enkelt umulig å montere dem manuelt.
  • Sporing endringer. Parsing kan utføres regelmessig, for eksempel hver uke, og oppdager hvilke priser i markedsprisen økt og hva nyheter dukket opp fra konkurrenter.
  • Veiledning av ordre på nettstedet ditt. Ja, så du kan. Og til og med trenger hvis flere tusen varer er i nettbutikken. Finn ikke-eksisterende sider, duplikat, ufullstendig beskrivelse, mangel på spesifikke egenskaper eller uoverensstemmelse for data på lagerrester som vises på nettstedet. Med en parser raskere.
  • Fyllingskort av varer i nettbutikken. Hvis nettstedet er nytt, er poengsummen vanligvis ikke engang hundrevis. Manuelt vil det ta ut tiden. Bruker ofte en parsing fra utenlandske nettsteder, oversatt den resulterende teksten av den automatiserte metoden, hvoretter nesten klar beskrivelser oppnås. Noen ganger gjør de det samme med russisktalende nettsteder, og de valgte teksten endres ved hjelp av Synonymizer, men for dette kan du få sanksjoner fra søkemotorer.
  • Skaffe databaser av potensielle kunder. Det er en parsing assosiert med å utarbeide, for eksempel en liste over beslutningstakere i en eller annen og byen. For å gjøre dette kan din private konto brukes på jobbsøkingssteder med tilgang til oppdatert og arkivet CV. Ethicitet om videre bruk av en slik base, bestemmer hvert selskap uavhengig.
Caltouch-plattform.

Gjennom analytics

Fra 990 rubler per måned

  • Samle automatisk data fra salgsfremmende nettsteder, tjenester og CRM i praktiske rapporter
  • Analyser salgstrakten fra showene til avkastningen
  • Konfigurer CRM-integrasjon og andre tjenester: Mer enn 50 ferdige løsninger
  • Optimaliser markedsføringen din ved hjelp av detaljerte rapporter: Dashboards, Grafikk, Diagrammer
  • Castomize tabellene, legg til dine beregninger. Bygg rapporter umiddelbart for noen perioder

Fordeler med parsing.

De er mange. Sammenlignet med en person, kan parsers:

  • Samle data raskere og i hvilken som helst modus, minst døgnet rundt;
  • Følg alle de angitte parametrene, selv veldig tynn;
  • Unngå feil fra uoppmerksomhet eller tretthet;
  • Utfør regelmessige kontroller på et gitt intervall (hver uke, etc.);
  • Send innsamlede data i ethvert nødvendig format uten overflødig innsats;
  • jevnt distribuerer belastningen på nettstedet der parsing passerer (vanligvis en side i 1-2 sekunder) for ikke å skape en effekt Ddos- Angrep.

Parsing restriksjoner

Det er flere alternativer for restriksjoner som kan gjøre det vanskelig å jobbe med parser:

  • Av Bruker agent. Dette er en forespørsel der programmet informerer nettstedet om deg selv. Parsers bang mange webressurser. Men i innstillingene kan dataene endres til Yandexbot eller Googlebot og sende de riktige forespørsler.
  • Av robots.txt, der forbudet er registrert for indeksering av søkroboter i Yandex eller Google (Vi introduserte nettstedet ovenfor) bestemte sider. Du må angi robots.txt ignorere program i programinnstillingene.
  • Av IP. Adressen, hvis samme type forespørsler kommer til det i lang tid. Løsning - bruk Vpn.
  • Caps. Hvis handlinger ligner automatisk, vises CAPTCHA. Lær parsers å gjenkjenne spesifikke arter er ganske vanskelig og dyrt.

Hvilken informasjon kan helles

Du kan redde alt som er på nettstedet i det offentlige området. Ofte nødvendigvis:

  • navn og kategorier av varer;
  • Hovedtrekk;
  • pris;
  • informasjon om kampanjer og oppdateringer;
  • Tekster av beskrivelsen av varer for deres påfølgende endring "for seg selv" og så videre.

Bilder fra nettsteder Teknisk gnist er også mulig, men som allerede nevnt ovenfor, hvis de er beskyttet av opphavsrett, er det bedre ikke nødvendig. Du kan ikke samle personlige data om brukerne med andres nettsteder, som ble injisert i personlige kontoer

Caltouch-plattform.

E-handelsmodul

Analytics for nettbutikken fra 990. rubler per måned

  • Samle automatisk data fra salgsfremmende nettsteder, tjenester og CRM i praktiske rapporter
  • Spor kurvene, samtaler, applikasjoner og salg fra dem med henvisning til kilden
  • Bygg en full salgstratt fra budsjettet for annonsering før avkastning
  • Spor hvilke kategorier og merker som ofte kjøper

Algoritme av arbeid med parsing

Prinsippet om programmets drift avhenger av målene. Men det ser sketchy:

  • Parseren leter etter på disse nettstedene eller i hele Internett-dataene som svarer til parametrene.
  • Informasjon er samlet og innledende systematisering (dens dybde bestemmes også når du setter opp);
  • En rapport i formatet som svarer til de nødvendige kriteriene, genereres fra dataene. De fleste moderne parsers er multi-format og kan lykkes med å jobbe i det minste med Pdf, Selv med arkiver Rar, i det minste S. TEKST.

Anvendelsesmetoder

De viktigste metodene for å bruke parsing det er to:

  • Analyser nettstedet ditt ved å introdusere de nødvendige forbedringene;
  • Analyser konkurrentersider, lån derfra de viktigste trender og spesifikke egenskaper av varer.

Vanligvis fungerer begge alternativene i en nær bunt med hverandre. For eksempel avvises analysen av prisposisjonene i konkurrenter fra det eksisterende spekteret på sitt eget nettsted, og de nyoppdagede romanene sammenlignes med sin egen markedsførbare base, etc.

Tilbud fra våre partnere

Slik Poule Data

For datalaping kan du velge en av to formater:

  • Dra nytte av spesielle programmer som det er mange på markedet;
  • Skriv dem selv. For dette kan nesten ethvert programmeringsspråk brukes, for eksempel, Php. , C ++, PYthon /

Hvis ikke all informasjon på siden er nødvendig, men bare noe definert (produktnavn, egenskaper, pris), brukt XPath.

Xpath - Dette er et språk som forespørsler om XML. Dokumenter og deres individuelle elementer.

Med hjelp av sine kommandoer er det nødvendig å bestemme grensene til fremtidig parsing, det vil si å spørre om hvordan man palerer data fra nettstedet - helt eller selektivt.

Å bestemme XPath. Det spesifikke elementet er nødvendig:

  • Gå til siden av et hvilket som helst produkt på nettstedet som analyseres.
  • Velg prisen og klikk på høyre museknapp.
  • I vinduet som åpnes, velg "View Code" -elementet.
  • Etter at koden vises på høyre side, klikker du på tre poeng på venstre side av den valgte linjen.
  • I menyen Velg element "Kopiere", deretter "Kopier XPATH".
Kopier XPath.

Et eksempel på definisjonen av XPath-elementet på nettsiden til nettbutikken Holtz Shoes

Hvordan redde prisen

Ved å stille spørsmålet "Parsing av varer - hva er det?", Betyr mange muligheten til å holde prisutforskning på konkurrenters nettsteder. Partene parter oftest og fungerer som følger. Kopier i eksemplet over koden Skriv inn et parser-program, som vil ta ut de andre dataene på nettstedet som svarer til det.

Slik at parseren ikke gikk gjennom alle sider og prøvde ikke å finne priser i bloggartikler, er det bedre å angi en rekke sider. For å gjøre dette må du åpne et kart XML. (Legge til /Sitemap.xml. I adressefeltet på nettstedet etter navnet). Her finner du referanser til seksjoner med priser - vanligvis er det produkter ( Produkter) og kategorier Kategorier. ), selv om de kan kalles annerledes.

Slik sparker du elementer

Alt er ganske enkelt her. Koder er definert XPath. For hvert element, hvoretter de er inngått i programmet. Siden spesifikasjonene til de samme varene vil falle sammen, kan du konfigurere AutoFill nettstedet ditt basert på mottatt informasjon.

Hvordan Poule vurderinger (med gjengivelse)

Prosessen med å samle tilbakemelding på andre nettsteder for å overføre dem til seg selv i begynnelsen ser ut som en måte. Det er nødvendig å bestemme XPath. For elementet. Imidlertid oppstår videre kompleksitet. Ofte er designet utformet slik at anmeldelsene vises på siden på den tiden når brukeren ruller den til rett sted.

I dette tilfellet må du endre programinnstillingene i avsnittet Gjengivelse og velg Javascript. Så parseren vil helt spille scenariet av bevegelsen på siden av den vanlige brukeren, og vurderinger vil motta et skjermbilde.

Hvordan analysere nettstedstruktur

Parsing struktur er et nyttig yrke, fordi det bidrar til å lære hvordan konkurrentene er ordnet. For å gjøre dette, er det nødvendig å analysere brødkrummene (Brødsmuler. ):

  • Markør til ethvert breadcrumbs element;
  • Trykk på høyre museknapp og gjenta trinnene for å kopiere XPath.

Deretter må handlingen utføres for andre elementer i strukturen.

Konklusjon Parsing Sites - Hva er det? Evil for nettstedseiere eller nyttig forretningsverktøy. Snarere er det ingen dyp analyse av konkurrenter uten omhyggelig datainnsamling. Parsing bidrar til å øke hastigheten på prosessen, fjerne lasten av endeløs rutinemessig arbeid per person og unngå feil forårsaket av overarbeid. Bruk parsing er helt lovlig, spesielt hvis du vet alle de medfølgende nyansene. Og evnen til dette verktøyet er nesten ubegrensede. Du kan fjerne nesten alt - du trenger bare å vite hvordan.

Parser hva er dette enkle språket, for det som trengs og hvordan å gjøre det

Добавить комментарий