feb. 25,2015 / De Ramona Joita / Nici un comentariu
Pe 24 Februarie s-au implinit patru ani de cand Google a anuntat oficial lansarea update-ului de algoritm Panda. Multi ar putea spune ca Panda a distrus foarte multe afaceri si ca a ingreunat foarte mult procesul de optimizare. Intr-adevar asa este, insa acest algoritm a contribuit foarte mult la evolutia procesului de optimizare SEO si a invatat webmasterii si proprietarii de business-uri sa puna mai mult accent pe dorintele utilizatorilor.
Cand Google a lansat pentru prima data acest update de algoritm, 12% din site-urile din toata lumea au fost afectate. Poate parea un procent destul de mic, dar nu este credeti-ma… Cele mai afectate au fost directoarele de articole, site-urile cu continut duplicat sau site-urile fara continut. Desi Google anuntase initial ca lanseaza acest algoritm pentru a ajuta site-urile cu un continut puternic sa urce in cautari, lucrurile nu s-au intamplat chiar asa. Foarte multi posesori de business-uri online au avut de suferit, chiar si cei cu site-uri puternice (De exemplu Ebay.com).
Inclusiv site-urile cu prea multe reclame au fost “vizitate” de Panda.
In mod cert, Panda este un algoritm lansat de Google cu scopul de curata serpul de site-urile spam sau care nu ofereau prea multe vizitatorilor. Este clar ca in urma lansarii acestui update de algoritm au existat castigatori, dar si perdanti.
Cu toate ca, din punctul meu de vedere Panda a venit la pachet cu multe imbunatari, exista si cateva minusuri considerabile care au avut efecte devastatatoare.
Unul din ele a fost favorizarea brandurile puternice in detrimentul business-urilor mici si mijlocii. Google Panda a pus accent pe cautarile si mentiunile de brand, interactiunea cu utilizatorii, structura linkurilor interne s.a.m.d. Din acest punct de vedere site-urile noi sau business-urile mici au fost dezavantajate. Ca sa intelegeti mai bine, o sa va explic printr-un exemplu, de care m-am lovit de curand.
Emag vinde foarte multe produse, motiv pentru care a ajuns un competitor puternic pentru multe site-uri. Unul din clientii mei comercilizeaza baterii externe, care se gasesc si pe Emag. Este foarte greu sa ma “bat” cu Emag pe aceasta nisa, pentru ca este un brand cunoscut, interactiunea lor cu utilizatorii este foarte buna, la capitolul continut stau foarte bine, la fel si la linkuri, au un istoric in spate etc. Si atunci cum ar putea un magazin online deschis de numai 2 ani sa concureze cu Emag? Din start Google o sa pozitioneze mai bine Emag, decat site-ul clientului meu.
Este mai greu pentru business-urile mici si mijlocii sa se ridice in cautarile organice, dar nu imposibil.
Per total, Panda este un update de algoritm care a determinat posesorii de business-uri online sa ofere utilizatorilor o experienta cat mai buna, ceea ce este bine. In fond, dupa ei ar trebui sa ne ghidam atunci cand vorbim de optimizare. Sigur ca nu putem sa il ignoram pe Google 😉
feb. 22,2015 / De Ramona Joita / Nici un comentariu
Unul dintre sfaturile pe care le aud cel mai des de la cei care fac SEO este “posteaza continut proaspat pe site mereu!” Google iubeste site-urile cu continut proaspat. Daca vei posta des continut pe site, Google va vedea ca exista activitate si iti va indexa mai des site-ul.
Hai sa iti povestesc ceva…
Am inceput sa promovez site-uri care comercializeaza tigari electronice, inca de la aparitia acestei industrii in Romania. Cand am inceput sa ma ocup de primul site, postam cel putin 2-3 articole pe saptamana. De ce? Pentru ca asa citisem pe forumurile de SEO si pe alte bloguri ale celor care se ocupau cu asa ceva.
Pozitiile site-ului meu, nu numai ca nu se imbunatateau, dar pierdeam si o groaza de timp scriind acele articole.
Intre timp, am inceput sa ma ocup de un al doilea site, care activa pe aceeasi nisa. Am schimbat strategia si nu m-am mai focusat sa creez sute de articole pe care sa le postez pe site. De fapt, cred ca exista pe site in jur de 10-15 articole pe care le-am publicat in 3 ani.
Rezultatul: Cel de-al doilea site ocupa prima pozitie in Google pe “tigara electronica” si pozitia 3 pe “tigari electronice”.
Google nu trateaza site-urile care publica mereu continut proaspat diferit de site-urile care publica continut in 3 ani, ca al meu de exemplu. Daca ar face asta, ar inseamna ca pe primele pozitii ar trebui sa avem mereu numai site-uri de stiri, pentru ca ele publica sute de articole zilnic. Le avem? Nu, sigur ca nu. Apar in cautari si se intampla sa gasim site-uri de stiri pe prima pozitie, dupa anumite cautari, dar nu intotdeauna. De ce? Pentru ca, pe Google il intereseaza sa ofere cea mai buna informatie utilizatorului. Nu conteaza ca este de pe site care publica articole o data la 3 luni sau in fiecare zi.
Degeaba postezi continut proaspat pe site, daca acel continut nu este practic, amuzant, nu afecteaza emotional cititorul si nu merita impartasit de catre cititor. Daca nu indeplineste macar una dintre aceste conditii, rescrie articolul.
Decat sa iti consumi timpul si banii pentru a publica articole pe site cat mai des, mai bine focuseaza-te sa redactezi articole care sa ofere informatii utile pentru cititori si care sa merite sa fie impartasite si altora.
Dupa ce ai avut grija sa creezi continut util si care sa atraga cititori, ocupa-te de promovarea lui. Un articol este degeaba scris daca nu il citeste nimeni. Nu uita, Google doreste sa ofere utilizatorului cele mai bune rezultate…
feb. 19,2015 / De Ramona Joita / Nici un comentariu
De-a lungul timpul m-am lovit de trei ori de aceasta problema:
1. Cu cativa ani in urma mi-au fost create backlinkuri pe site-uri pline de spam si pe site-uri cu continut pentru adulti, la unul dintre site-urile unui client, care era pe prima pozitie. Bineinteles, la un update de algoritm site-ul mi-a picat din prima pagina unde era. Am inceput sa cercetez si surpriza… am descoperit acele linkuri pe care eu nu le creasem. La momentul respectiv, disavow abia fusese introdus, nimeni nu stia daca este intr-adevar util sau daca nu este decat o forma prin care Google vrea sa “curete” site-urile spam. Am facut o lista cu backlink-urile negative si am trimis-o la Google si m-am rugat la Doamne Doamne sa se intample ceva. Intr-un final s-a intamplat, dar toata treaba a durat foarte mult.
2. Am avut un client cu un site, facut pe o platforma WordPress, pe nisa videochat, unde este destul de greu sa faci SEO. M-am chinuit cu el destul de mult sa incerc sa fac o strategie si sa il ajut sa urce in serps. Dupa cateva luni de munca, site-ul urcase in prima pagina, iar munca mea parea sa dea roade cand… surpriza intr-o zi ma trezesc cu el picat. Analizez linkurile si nimic suspect. Incep si analizez site-ul, pe care stiam ca il pusesem la punct, la fel nimic suspect. La un moment dat unul din colegii mei se uita in sursa si vede cateva linkuri ascunse catre site-uri cu viagra si alte porcarii. Eram disperata, nu stiam ce sa fac cu el sa il ajut. Am inceput sa cer ajutor pe unde am putut, inclusiv lui Matt Cutts, Neil Patel, Brian Dean… toti mi-au dat acelasi raspuns: nu ai ce face, pentru ca Google considera ca este responsabilitatea ta sa iti securizezi site-ul.
3. Cu multi ani in urma mi-a fost spart site-ul agentiei, cand intrai pe el aparea numele hackerului. Din fericire, am depistat repede problema si nu a influentat pozitiile in Google.
Hackerii par ca se inmultesc de la an la an, iar daca unul te are in vizor este doar o chestiune de timp pana cand vor avea “grija” de site-ul tau. Pentru ei este o joaca, pentru tine inseamna bani pierduti si sansa sa nu iti mai vezi site-ul in primele pagini prea curand.
Astazi cei de la Google au publicat pe blogul lor oficial doua studii de caz interesante pe care as vrea sa vi le prezint si voua, poate va sunt de folos.
1. Site al unui restaurant hackuit
Un site al unui restaurant, realizat pe WordPress, a primit un mesaj in Google Webmasters, in care era alertat ca a fost hackuit. Pentru a proteja utilizatorii, Google a catalogat site-ul ca fiind hackuit in motoarele de cautare. Cel care se ocupa de site-ul respectiv, a observat in sursa linkuri ascuse catre site-uri care vindeau “viagra” si alte astfel de minunatii. De asemenea, a observat si multe pagini care aveau in meta description “cumpara valtrex in Florida.” Va suna cunoscut? Mie da…
Singura diferenta este ca eu nu am primit in GWT niciun mesaj de la Google. Dupa toata faza am curatat site-ul, dar mi-am pierdut clientul… Nu m-a acuzat de nimic, pentru ca stia ca nu este vina agentiei mele pentru ce s-a intamplat, dar colaborarea noastra s-a incheiat. Intamplarea asta m-a facut sa urasc site-urile facute pe WordPress pentru ca sunt destul de usor de hackuit.
Cateva sfaturi pentru cei care aveti site-uri pe WordPress:
– aveti grija sa faceti mereu update-uri la CMS. Asigurati-va ca si plugin-urile sunt la zi, de asemenea.
– asigurati-va ca aveti un admin si o parola greu de spart la CMS.
– in cazul in care CMS-ul suporta, permiteti verificarea in 2 pasi pentru autentificare.
– asigurati-va ca plugin-urile si temele sunt cumparate de la surse sigure.
– puteti pune restrictie (deny from all) si sa adaugati in whitelist doar IP-ul vostru
– puteti schimba calea de acces catre panoul de admin (in loc de wp-admin sa fie vpadmin)
– foarte important este sa schimbati userul, sa nu lasati “admin” simplu
– puteti incerca si CAPTCHA pe pagina de admin
2. Site cu mai multe pagini hackuite greu de descoperit
Un alt proprietar de site a primit in GWT un mesaj in care era anuntat ca site-ul i-a fost hackuit. Mesajul continea un exemplu de pagina adaugata de hackeri: http://example.com/where-to-buy-cialis-over-the-counter/ . Proprietarul a contactat pe cei unde avea gazduit site-ul, iar cand acestia s-au uitat in sursa nu au gasit niciunul dintre acesti termeni in homepage. Cand au accesat pagina cu pricina aceasta dadea eroare. Proprietarul site-ului a cumparat, de asemenea, un program cu care sa scaneze de virusi, dar nu a gasit nimic in site.
Dupa ce a trimis o cerere de reconsiderare la Google, aceasta a fost respinsa si a fost sfatuit sa faca doua lucruri:
– sa verifice versiunea fara www a site-ului, deoarece hackerii obisnuiesc sa ascunda continut in foldere ce nu pot fi descoperite usor de cei care fac SEO
Desi poate parea ca http://exemple.com si http://www.exemple.com sunt acelasi site, Google le trateaza ca fiind site-uri diferite. http://exemple.com este considerat “root domain”, iar http://www.exemple.com este considerat subdomeniu. Dupa ce a verificat versiunea fara www a putut sa vada continutul ascuns de hackeri, folosind tool-ul “Preluare ca Google” din GWT.
– a verificat .htcaccess unde a descoperit continut care nu era pus de el:
Mod_rewrite a fost inserat de hackeri si are functia de redirectiona pe oricine intra pe site, de pe anumite motoare de cautare, inclusiv crawlerele motoarelor de cautare, catre main.php, care genereaza continutul hackuit. Aceasta functie poate fi folosita si pentru a redirectiona utilizatorii care intra de pe dispozitive mobile. In aceeasi zi, a observat ca scanerul de virusi a identificat continut suspect in fisierul main.php. Pe langa asta, a gasit si un utilizator necunoscut in FTP.
A curatat toate fisierele si site-ul nu a mai fost hackuit!
Cateva sfaturi de la Google pentru a preveni aceasta situatie:
– evitati utilizarea FTP-ului cand transferati fisiere pe servere. FTP-ul nu cripteaza traficul si nici parolele. In schimb, folositi SFTP, care va cripta totul
– verificati utilizatorii care au acces la .htcaccess. Fisierul .htaccess poate fi utilizat pentru a imbunatati si a proteja site-ul, dar poate fi folosit, de asemenea, si pentru a virusa site-ul de catre persoanele care au acces.
– verificati din cand in cand si utilizatorii din admin, pentru a va asigura ca nu apar utilizatori necunoscuti care va pot modifica site-ul.
Oricui i se poate intampla acest lucru si mai rau este ca ti se intampla cand nu te astepti. Daca site-ul este hackuit, cum a fost in cele doua studii de caz, este destul de grav pentru ca risti ca site-ul sa isi ia penalizare. Niciun om de SEO nu sta sa verifice zilnic toate fisierele si in sursa, sa vada daca site-ul a fost hackuit. Daca ar face asta nu ar mai avea timp sa se ocupe de promovare.
In cazul in care va confruntati cu aceasta problema, puteti apela la http://www.google.com/webmasters/hacked/ sau https://productforums.google.com/forum/#!categories/webmasters/malware–hacked-sites pentru ajutor!
feb. 17,2015 / De Ramona Joita / Nici un comentariu
Webmasterii din intreaga lume au intrat in “panica” cand au auzit ca John Muller a declarat ca ar evita link buildingul, in general.
De parca ar fi o noutate… in polica lui Google scrie foarte clar: “Orice linkuri create cu scop de a manipula Page Rankul sau pozitiile unui site in Google pot fi considerate a fi parte dintr-o schema de linkuri si o violare a Google`s Webmaster Guidelines.”
John Muller nu ne spune ca s-a schimbat politica lui Google privind linkurile, care suna asa: “Evitati trucuri menite sa imbunatateasca pozitionarea in motoarele de cautare. O buna regula ar fi daca te-ai simtii confortabil sa explici ceea ce ai facut site-ului unui competitor sau unui angajat Google. Un alt test util este sa te intrebi: Acest lucru este util pentru utilizatorii mei? As face acest lucru daca motoarele de cautare nu ar exista?”
Acum ar insemna sa fim ipocriti si sa ne prefacem ca motoarele de cautare nu exista. La fel, am fi ipocriti daca am sustine ca linkurile nu conteaza in SEO. Nu in ultimul rand, cred ca rar se gasesc oameni care sa povesteasca toata strategia lor de SEO unui competitilor, ca sa nu zic ca nu exista.
Orice om care face SEO nu ar trebui sa fie surprins de declaratia lui John Muller despre link building si nu ar trebui sa interpreze ceea ce a spus altfel decat este specificat in politica lui Google. Atentie! John Muller nu spune ca nu ar trebui sa facem link building sau ca linkurile nu conteaza.
Aici este problema…
Muller spune “make yous content easy to link to”, iar apoi adauga ca ar evita in general crearea de linkuri. Cu alte cuvinte, evita sa folosesti metode care nu se bazeaza pe crearea de continut pe care altii ar putea sa il considere util si sa iti puna link catre el. Nu spune ca nu ar trebui sa creezi linkuri, ci ca ar trebui sa creezi continut care sa merite sa fie impartasit de catre altii.
Exista o diferenta intre a crea linkuri si a crea linkuri prin continut pe care altii sa il preia. Ambele pot fi facute respectand politica lui Google si ambele pot fi facute incalcand politica lui Google. Aici este “portita” oamenilor de SEO.
Fac de mai bine de 6 ani SEO si de la o vreme am cam inceput sa nu mai citesc tot felul de articole de SEO cu scop de a atrage trafic sau tot felul de threaturi pe forumuri unde posteaza tot felul de parelologi. Problema nu este ceea ce declara cei de la Google, ci modul cum este interpretat. Iar, de cele mai multe ori aud oameni care interpreteaza gresit astfel de declaratii.
feb. 11,2015 / De Ramona Joita / Nici un comentariu
Revenirea dupa o penalizare Penguin
Studiu de caz SEO
Astazi vom discuta despre revenirea dupa o penalizare Google Penguin. Dupa cum stim cu totii deja, algoritmii Google sunt in continua modificare, actualizare si reactualizare. Ne-au invadat toate animalele – Penguin, Panda, etc. si incearca sa ne puna piedica la site-urile mult muncite. Dar, o intrebare foarte frecventa este urmatoarea: “Isi poate reveni un site dupa o penalizare Google Penguin?” – raspunsul este DA!
Un studiu de caz din State al unui webmaster ne povesteste despre experienta sa si cum si-a “pus pe picioare” site-ul dupa ce a fost lovit de o penalizare de tip Penguin. Va voi povesti si explica mai multe.
Semnele lui Google Panda
Ranking-ul (SERPS) in motoarele de cautare a scazut dramatic
Traficul a scazut inexplicabil de mult
Ai incalcat unele reguli pe care Penguin le impune
In principiu, toate 3 cazurile de mai sus merg mana in mana si sunt prezente toate in cazul unui site penalizat.
Nu te descuraja! Ai sanse foarte bune sa repui site-ul pe picioare, sa recuperezi pozitiile in motoarele de cautare si traficul mult dorit.
Ce este Google Penguin?
Google Penguin este un algoritm nou implementat de Google care penalizeaza site-urile ce se implica agresiv in campanii de linkbuilding. Acest algoritm penalizeaza site-urile care incearca sa manipuleze pozitiile in motoarele de cautare prin crearea/cumpararea de backlink-uri de slaba (chiar proasta) calitate si exagerand cu utilizarea ancorelor principale (money keywords).
In momentul in care Google detecteaza backlink-uri nenaturale, algoritmul te va penaliza exact pe grupul de ancore si cuvinte cheie pe care le targetezi. Rezultatul e destul de dramatic – trafic mult mai putin (spre deloc) organic, iar pentru site-urile care se bazeaza pe trafic organic… inseamna game over.
Cum iti poti da seama daca ai fost penalizat de Google Penguin
Probabil cel mai simplu mod este sa vezi cand au fost update-uri Google Penguin. Update-urile acestui algoritm au fost pe urmatoarele date pana in prezent, dupa cum urmeaza:
Penguin 1.0 – 24 Aprilie 2012
Penguin 1.1 – 25 Mai 2012
Penguin 2.0 – 5 Octombrie 2012
Penguin 2.1 – 4 Octombrie 2013
Penguin 3.0 – 17 Octombrie 2014
Daca traficul site-ului tau a scazut brusc dupa vreuna din datele de mai sus, atunci sunt sanse mari ca site-ul tau sa fi fost penalizat. Pentru a fi cat mai sigur de eventuala penalizare, iti recomandam sa faci o analiza a backlink-urilor site-ului tau pentru a detecta eventualele link-uri low-quality care ti-ar fi putut afecta site-ul. Totodata, ar trebui sa verifici si densitatea ancorelor utilizate, daca sunt prea multe (sau toate) pe acelasi money keyword… Not good.
Daca majoritatea backlink-urilor sunt de pe site-uri de slaba calitate, sunt sanse mari de asemenea ca site-ul tau sa se fi ales cu penalizare.
Exista cazuri nefericte, ca ale celui din State despre care va povesteam – in care backlink-urile create de webmaster sunt de buna calitate dar… competitia nu doarme. Nu putine sunt cazurile in care competitorii creeaza backlink-uri negative pentru site-urile altor competitori. Trust my word, am patit-o pe propria piele. Dar o sa va povestesc despre asta intr-un alt articol.
Cu alte cuvinte, degeaba monitorizezi doar backlink-urile pe care le faci tu, trebuie sa monitorizezi toate backlink-urile site-ului tau pentru a nu te trezi cu vreo surpriza neplacuta, cauzata de linkbuilding-ul folosit ca arma de vreun competitor.
Ce facem cu backlink-urile slabe/daunatoare
Pasul cel mai important este probabil de detectat aceste link-uri slabe si daunatoare. Apoi, trebuie sa incercati sa luati legatura cu proprietarii site-urilor (mail/telefon) si sa ii rugati sa scoata link-ul catre site-ul vostru. Daca raspunsul nu apare, nu reusiti sa luati contact s.a.m.d. – Google a creat un tool accesibil prin Webmaster Tools numit “Disavow Tool”. Un tool foarte util cu ajutorul caruia poti trimite la Google lista de backlink-uri catre site-ul tau pe care vrei ca Google sa le ignore.
Cu alte cuvinte, daca un site negativ are un link plasat catre site-ul tau, poti face cu ajutorul lui Disavow Tool ca backlink-ul de pe site-ul negativ sa nu mai fie luat in calcul de catre Google.
Cum poti vedea toate backlink-urile pe care site-ul tau le are? Prin numeroase modalitati:
OpenSiteExplorer.org (trebuie cont paid pentru a vedea absolut toate backlink-urile, insa chiar si asa se pot vedea foarte multe – pentru unele site-uri se pot vedea chiar toate, in functie de cate sunt)
De regula site-urile care au foarte multe link-uri externe (external links sau Ext) sunt daunatoare si probabil ferme de link-uri. In orice caz, iti recomandam cu tarie sa verifici fiecare backlink in parte, manual. E o munca obositoare, insa.. dupa munca si rasplata!
Dupa identificarea backlink-urilor si site-urilor care fac trimitere catre site-ul vostru, acordati mare atentiei ancorei pe care se face trimitere catre site-ul vostru. Daca o ancora este folosita prea des… nu este bine si trebuie, daca este posibil, schimbata cu alta ancora mai putin folosita. Conceptul este destul de simplu la prima vedere: “totul trebuie sa fie natural” (sau… in cazul celor priceputi la SEO, sa -para- natural).
Am scapat de link-urile slabe, am dat disavow, am schimbat ancore… acum ce fac?
In principiu… trebuie asteptat urmatorul Google Penguin update. Din pacate, nu sunt prea multe lucruri de facut decat de asteptat, odata ce toate lucrurile de mai sus au fost puse la punct conform indicatiilor.
In cazul webmaster-ului din USA, site-ul si-a revenit urmand aceeasi pasi de mai sus.
De asemenea, trebuie sa ai rabdare! Astfel de penalizari nu dispar peste noapte si este posibil, ca nici dupa ce ai facut aceste modificari sa nu se intample nimic. Am intalnit clienti, care au venit la mine cu site-urile penalizate de Penguin si care aveau pretentia sa fac o “magie” astfel incat site-urile lor sa isi recupereze pozitiile in serps intr-o luna sau doua. Asa ceva nu este posibil… cel putin nu prin tehnicile de white seo.
In concluzie, se poate recupera dupa o penalizare Google Penguin! Totul este sa incerci sa afli cauza pentru care site-ul a fost penalizat si sa incerci sa elimini linkurile de slaba calitate.
ian. 16,2015 / De Ramona Joita / Nici un comentariu
De fiecare data cand preluam un client nou al carui site are un aspect modern, primim intrebari de genul “Google va indexa URLurile cu #?” si “cum afecteaza aceste URL-uri procesul de SEO?”. Raspunsul… depinde de situatie.
Simbolul # intr-un URL reprezinta un fragment al paginii, in trecut acest simbol a fost folosit pentru a aduce browser-ul la pozitia respectiva in mod automat. Asadar, acest simbol reprezinta o parte a documentului, iar orice este urmat de acest simbol este denumit ca identificatorul fragmentului (anchor tag). In mod normal, aceste fragmente sunt interpretate doar de catre browser, spre exemplu:
Browserul interpreteaza ca fiind 2 URLuri diferite, pe cand serverul interpreteaza ca fiind doar o singura cerere. Iar google va lua doar pagina: www.company.com/fruits.html
Din aceasta cauza este important sa nu se foloseasca “fragmentele” – respectivele # pentru a reprezenta pagini diferite. Pe scurt, daca doresti ca Google sa indexeze separat acele fragmente, ar fi mult mai usor daca acelea s-ar afla pe 2 pagini distincte. Dar in implementarile moderne, de regula platformele construite sa foloseasca AJAX, de genul one-page site (o singura pagina fragmentata prin #), fragmentele au rolul de a adauga continut dinamic.
Asadar intrebarea ramane, cum facem ca Google sa indexeze continutul distict cu pagini care utilizeaza tehnologia AJAX.
Iar raspunsul e simplu, Google a adaugat o sintaxa diferita pentru a trece peste aceasta problema, prin folosirea unui semn de exclamare imediat dupa hash, (#! ). Google stie ca acele fragmente nu sunt folosite pentru scroll-ul traditional dar in schimb pentru a incarca continut diferit. Asadar, exemplul nostru ar deveni:
ian. 13,2015 / De Ramona Joita / Nici un comentariu
Google Penguin
Update-ul celor de la Google pentru Penguin de dinainte de sarbatori a ingrijorat cu siguranta multi dintre webmasteri. Acest update a creat un precedent, astfel incat ne putem astepta la refresh-uri sau update-uri mult mai frecvent. Acest lucru poate fi considerat bun prin prisma faptului ca ar putea da posibilitatea vizualizarii intr-un timp mai scurt a muncii de SEO, dar in acelasi timp, fiecare webmaster nu va mai putea “dormi” linistit o perioada, cel putin pana la urmatorul update.
Google Pigeon
Pigeon este un algoritm implementat de cei de la Google relativ recent, care are ca scop principal returnarea rezultatelor locale. In linii mari, acest algoritm este un sistem care sta deasupra rezultatelor, filtrand rezultatele cu caracter local. Acest algoritm a fost necesar intrucat cautarile de genul “gaseste un restaurant cu specific romanesc aproape de mine” facute prin Google Now au luat avant. Aceste filtre vor fi evident imbunatatite si aduse la zi, astfel incat Google sa poata da rezultatele cele mai bune pentru utilizatori.
Google Panda
Acest algoritm este cel mai ingrijit algoritm al celor de la Google. El are ca principal scop inlaturarea de continut irelevant, de calitate slaba sau redundant. Cu alte cuvinte, se doreste inlaturarea site-urilor “low-quality” si promovarea site-urilor de calitate.
Pe langa toate acestea, webmasterii vor trebui sa tina cont si de competitorii celor de la Google, adica Bing si Yahoo. In urma intelegerii din noiembrie anul trecut, intre Yahoo si cei de la Mozilla, Firefoxul are ca principal motor de cautare Yahoo. Aceasta intelegere poate aduce o crestere a numarului de utilizatori ai Yahoo. In acelasi timp cei de la Microsoft imping motorul de cautare Bing cat pot de tare pe platforma Windows 8, incercand astfel sa acapareze o cota de piata din ce in ce mai mare.
Cu alte cuvinte, optimizarea SEO va trebui sa fie una universala si nu una axata strict pe cerintele Google.
ian. 12,2015 / De Ramona Joita / Nici un comentariu
Comunicatul de presă reprezinta cea mai flexibilă soluție de promovare online – pentru că, în primul rând, un comunicat de presă poate atrage noi clienți, în funcție de canalele de propagare. In al doilea rând, reprezintă cea mai naturală formă de promovare seo (pentru necunoscători: cea mai fiabilă soluție de a urca în motoarele de căutare).
Desi Matt Cutts a declarat la un moment dat ca din punct de vedere SEO comunicatele de presa nu au valoare, webmasterii stiu deja ca acest lucru nu este valabil. Sigur ca, la fel ca si in cazul altor metode de promovare, indicat ar fi sa nu facem abuz de aceasta tehnica.
Diferenta intre un post pe blog si un comunicat de presa este in principal metoda de redactare. Un comunicat de presa este in general redactat intr-un mod formal, cu obiective clar definite de cele mai multe ori cu cat mai putine detalii tehnice sau termeni de specialitate. Pe cand un post pe blog se poate redacta intr-un mod mai informal, se poate face “abuz” de termeni tehnici sau de specialitate, eventual chiar exemple.
Comunicatul de presă te poate urca în topul rezultatelor Google
Dacă înainte, prin SEO se înțelegea să ai cat mai multe linkuri și se punea accentul pe cantitate si nu pe calitate, astăzi SEO reprezintă mai multă relevanță pentru utilizatorii de internet – pentru că Google, prin noile sale update-uri ale algoritmilor de căutare, pune mai mult accent pe conținut de calitate și mai puțin pe numărul de linkuri. Înainte era “la modă” să-ți înscrii site-ul în cat mai multe directoare web; astăzi se practică înscrierea pe site-uri care oferă suport pentru comunicate de presă.
Cum se scrie un comunicat de presă și ce trebuie să transmită?
Un comunicat de presă are principalul rol de a informa publicul vis-a-vis de un produs, serviciu sau eveniment și poate fi privit ca o știre, însă până la un anumit punct – pentru că știrea relatează platonic si obiectiv anumite întâmplări, comunicatul de presă intră mai mult în amănunte explicând utilitatea, designul (dacă este cazul), funcționalitatea și chiar prețul pentru ceea ce promovează. În concluzie, comunicatul de presă transmite mai mult decât “avem un produs, uite-l aici” – motiv pentru care publicul nici nu-l percepe ca pe o reclamă, pentru că oferă informații utile, gratuit!
Cum se scrie un comunicat de presa
1. Titlul – Din experiență, aș tinde să spun că titlul merge creat chiar după finalizarea comunicatului de presă, pentru că abia după ce avem o imagine de ansamblu a ceea ce-am scris putem da un titlu relevant. Mai mult de atât, dacă se pot include 1-2 cuvinte cheie este mai mult decât perfect, însă aceasta tehnică trebuie aplicată natural, fără a afecta ideea de titlu.
2. Lead-ul – Lead-ul este ca o introducere pentru întregul comunicat de presă și nu este deloc de neglijat, pentru că poate influența rata de citire. Multe site-uri de comunicate de presă afișează un “excerpt” (rezumat) al comunicatului, ca apoi, dacă cititorul este interesat, să poată fi deschis prin click pe titlu. Dacă lead-ul nu stârnește interes, comunicatul de presă va avea o rată de citire mai scăzută.
3. Conținutul de bază a comunicatului – Evident, cea mai importantă parte, pentru că aici este prezentat produsul, serviciul sau evenimentul pe care îl promovați. Aș recomanda tuturor să nu-și laude prea mult produsele, să fie la obiect, să pună accent pe funcționalitate și alte aspecte de interes pentru consumatorul ordinar; eventual sa faca o comparatie intre produsul propriu si competitia. Dacă un comunicat de presă tinde să fie prea “comercial” își pierde credibilitatea și chiar cititorii. Pentru a evita greșelile și pentru a investi în imagine, multe companii, dar și persoane fizice, aleg un web copywriter care să le redacteze comunicatul de presă.
4. Încheierea – Dacă stăm bine și ne gândim, încheierea unui comunicat de presă este de asemenea o piesă foarte importantă pentru că informația prezentată la urmă este și cea cu care rămâne cititorul în cap. Vă dați seama că nimeni nu reține toate informațiile din cadrul unui articol, însă ultima propoziție va rămâne în capul cititorului chiar și după ce acesta iese de pe site. La final, în general, se scrie despre compania care s-a promovat sau produsul despre care s-a scris.
Însă, așa cum am spus și mai sus, dacă ții la imaginea ta – poți apela la un specialist in redactarea de articole (comunicate de presă, advertoriale, știri etc).
ian. 8,2015 / De Ramona Joita / Nici un comentariu
Fiecare firma cu prezenta si in mediul online, a resimtit intr-o forma mai mica sau mai mare ultimele actualizari pentru ale motorului de cautare Google.
Unele firme au reusit sa se mentina pe pozitii, altele au urcat vertiginos, dar cele mai multe au scazut in clasamente.
Din literatura de specialitate si comunicatele celor de la Google reiese faptul ca, motorul de cautare isi schimba strategia cu privire la compunerea clasamentelor. Daca pana acum cel mai important factor era numarul de recomandari pentru un site (linkuri pentru acel site), de ceva timp se ia in considerare continutul si anume motorul de cautare va tine seama de calitatea si intr-o mai mica masura cantitatea de continut; schimband astfel atentia catre continut.
Insa, cei de la Google nu se vor opri aici, urmatorul pas logic va fi analiza acestor articole, va trebui sa existe o departajare intre un continut de calitate si unul prost, neinteligibil facut doar pentru a satisface noile cerinte. De asemenea va trebui sa “inteleaga” despre ce se vorbeste in acel articol, sa inteleaga entitatile in cauza si sa isi dea seama daca “se vorbeste de bine sau de rau” in articol.
Pentru ca aceste rezultate sa apara integrate intr-un site, va trebui sa se urmareasca urmatoarele supozitii.
1. Construieste un site cu o structura semantica inteligenta – Avand in vedere ca motoarele de cautare au deja o cunostinta despre care termeni sunt relevanti si inruditi, nu strica sa te preocupi de scrierea si asezarea continutului intr-un mod cat se poate de logic. De obicei, intuitia este suficienta pentru asta.
2. Creaza continut care utilizeaza termeni, fraza, relevante – Daca, de exemplu, tintesti catre ceva de genul ipoteci, dar continutul se refera cu precadere la inchirieri imobiliare, schimbarea lui va avea efecte benefice, desi ambi termeni au aceiasi “clasa mama” ei fac parte din subcategorii diferite.
3. Urmareste sa capeti “recomandari”, linkuri, din partea unor site-uri relevante pentru nisa ta.
Desi volumul si autoritatea linkurilor ce recomanda o anumita pagina este un factor important, un rol foarte important este si conexiunea semantica intre linkurile care recomanda un anumit site si acel site. De exemplu, daca un site prezinta flori de sezon, un blog, iar acesta are recomandari din partea unor site-uri ce prezinta gadgeturi sau ce mai este nou in piata IT, faptul ca nu sunt in aceiasi categorie, va afecta relevanta site-ului de flori, indiferent cat de bune ar fi site-urile din domeniul IT.
Asadar,strategia de culegere de linkuri de oriunde, cu conditia ca site-ul care recomanda sa aiba un pagerank bun nu mai este atat de buna si recomandarea mea este ca aceste linkuri sa fie axate atat pe zona de interes, de exemplu Romanaia sau Marea Britanie, dar foarte importat sa fie axate pe aceiasi nisa cu site-ul.
Astept cu placere parerile voastre, iar daca cineva ar dori sa aprofundeze aceste subiecte, sa lase un mesaj.
dec. 22,2014 / De Ramona Joita / Nici un comentariu
Opiniile in lumea SEO sunt extrem de polarizate in ceea ce priveste update-ul Penguin. De la lansarea sa si pana in prezent disputa intre beneficiile si dezavantajele acestui update sunt inca discutate aprins.
Partile bune
#1. A facut continutul “Rege”
Inca de la infintarea sa, Google afirma ca ceea ce conteaza este continutul; desi s-a bazat mai mult pe volumul de linkuri ce recomanda o anumita pagina, deoarece acest indicator poate fi mai bine cuantificat. Aceasta a determinat de-a lungul vremi ca atat agentiile SEO, cat si webmasterii, sa se concetreze mai mult pe strategiile de link-building si mai putin pe crearea de continut spectaculos.
#2. A schimbat regulile jocului
Desi inca o buna parte din comunitatea SEO inca incearca sa gaseasca portite in algoritm prin strategii de link-building, cea mai mare parte a comunitatii SEO si-a schimbat radical tacticile.
Partea cea mai importanta a “industriei” de SEO s-a canalizat pe strategii de castigare a linkurilor prin continut de buna calitate, ceea ce este un lucru excelent. In plus atat webmasterii. cat si agentiile SEO, pun un pret mai mare pe managmentul linkurilor (atat calitatea lor cat si relevanta acestora), deoarece sunt interesati sa scape de linkurile “proaste”.
#3. A readus SEO acasa.
Inainte de acest update Penguin, riscurile cumpararii de servicii SEO de pe site-uri ce ofereau acest tip de serviciu erau limitate. Aceste servicii constau in principal in cumpararea de linkuri. Desi Google s-a jucat dea soarecele si pisica in a contracara aceste tehnici, de cele mai multe ori aceste tehnici au functionat excelent.
Partile negative
#4. A dat startul la SEO negativ
Creand un algoritm care penalizeaza link-buildingul cu site-uri de proasta calitate, Penguin a creat posibilitatea ca un webmaster sau o agentie SEO sa incerce sa penalizeze competitia. Desi pozitia oficiala a Google este ca acest tip de SEO negativ este destul de greu de realizat, pentru cineva cu cunostinte si programe adecvate , nu este chiar asa greu de realizat.
#5. A transformat Webmasterii in “sclavi ai internetului”
Din pacate, odata cu acest update, oricine poate crea o campanie de link-building pentru un site fara consimtamatul administratorului. Desi este destul de greu sa castigi linkurile bune, pe care ti le doresti, este foarte usor pentru oricine sa iti construiasca linkuri de care nu ai nevoie si chiar ar putea sa-ti faca rau.
Concluzii
Per ansamblu acest update a fost bun, desi unele voci afirma ca acest update ar fi fost mult mai eficace daca, in loc de a penaliza site-urile cu linkuri de proasta calitate, aceste linkuri erau pur si simplu neutralizate. Dar parerea mea este ca Google a vrut sa dea o lectie tuturor.
Acest site utilizeaza cookie-uri pentru a va imbunatati experienta. Vom presupune ca sunteti de acord, dar puteti renunta, daca nu doriti. AcceptAfla mai multe
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.