admin@internet-webdesign.org +43 664 88 66 7043

Blogkommentare

Nichts macht erfolgreicher als Erfolg.

Es macht deshalb nichts, klein anzufangen.

Informationsüberflutung

Suchmaschinen erkennen gute Informationen. Was wir von Suchmaschinen lernen können.

  • 01_blog
  • 02_blog
  • 03_blog

Die Google Tiere und E-Commerce Webseiten

Die „Google Animals“ sind nach Tieren benannte Updates des Google Sortieralgorithmus, welcher das Ranking von Webseiten bestimmt. Bekannt sind insbesondere die Panda, Pinguin und Hummingbird Updates, wegen welcher sich Marketing Experten seit Jahren den Kopf zerbrechen.

Ziel der Veränderungen des Algorithmus seitens Google ist es, Inhaltsklau und Spam zu bestrafen. In der Vergangenheit kam es nach der Implementierung der Updates oft dazu,dass Seiten die an einem Tag auf Seite 1 der Google gereiht waren, „abstürzten“ also sich in ihrer Positionierung deutlich verschlechterten.

Webseiten, die beispielsweise Inhalte von anderen Webseiten abkupfern und diese in die eigene Homepage einbauen, sind besonders gefährdet. Ebenso abgestraft werden Seiten, welche Links (sogenannte Backlinks) einkaufen oder die eigene Seite mit zu vielen Keywords (Suchbegriffe) vollpflastern.

Die Vermeidung von doppelten Inhalten (Duplicate Content) stellt ebenso eine Herausforderung dar. So sollen dieselben Texte oder Textpassagen auf der eigenen Homepage idealerweise nicht oft oder möglichst wenig vorkommen. Bei Betreibern von Webshops ist dies mitunter schwierig und nicht machbar, weil Artikel- bzw. Kategorie-Beschreibungen einheitlich sein sollen. Google hat für diese Problematik den sogenannten „Canonical Tag“ geschaffen. Dabei handelt es sich um eine Progammierzeile, die Google anzeigt, dass die doppelten inhaltliche Beschreibungen bewusst gewählt wurden. Mit dem Einbau des „Canonical Tags“ wird Abstrafung durch Google so vermieden.

Google News – Wichtige Änderungen

Im Mai meldeten einige Internet Marketing Portal, darunter die U.S. amerikanische Webseite Searchenginejournal wichtige Veränderungen hinsichtlich des Sortier-Algorithmus bei Google.

Um die Positionierung von Webseiten nach bestimmten Suchworten zu bestimmen, verwenden Google und andere Suchmaschinen diesen Algorithmus. Ziel der Suchmaschinen ist es, den relevantesten und inhaltlich besten Webseiten das beste „Ranking“ zukommen zu lassen. Im Google Algorithmus sind rund 200 Faktoren enthalten, welche die Positionierung bestimmen.

Die im Mai durchgeführten Veränderungen umfassen die Beschreibungen von Webseiten, genauer gesagt die Titelbeschreibungen sowie die „Meta-Beschreibungen“ (Kurzbeschreibungen). Die meisten professionell erstellten Webseiten sind mit solchen Beschreibungen versehen. Neu ist, dass die optimale Länge der Beschreibungen ausgedehnt wurde. Titel können nun bis zu 70 Zeichen lang sein, Kurzbeschreibungen können bis zu 240 Zeichen haben.

Dies ist dahingehend zu interpretieren, dass der inhaltlichen Gestaltung und Beschreibung größere Bedeutung zukommt als bisher.

Soziale Medien 2016 – Zahlen

Die Popularität der sozialen Medien hat sich auch im Jahr 2016 gesteigert. Einige Plattformen, wie zum Beispiel „Whatsapp“, konnten dabei besonders hinzugewinnen.

Nachstehende statistische Auswertung der monatlichen Benutzerdaten zeigt auf, dass Linkedin zu den größten Gewinnern zählt - das berufsbezogene Netzwerk hat die 400 Millionen-Benutzer-Marke deutlich überschritten und registrierte seit dem Jahr 2012 fast 300 Millionen neue Benutzer.

social-media-statistik-2016


Google Core Update 2016

Mitte Januar 2016 rollte Google das nächste „Core Update“, also eine wesentliche Veränderung des Reihungsalgorithmus, raus. Die nunmehr erkennbaren Erweiterungen des Algorithmus weisen (nicht überraschend) darauf hin, dass Google weiter die Spreu vom Weizen trennt und Qualitätsfaktoren betreffend die inhaltliche Gestaltung stärker gewichtet. Daraus ergeben sich, je nach Größe einer Homepage, für die Homepage Betreiber einige umsetzungsbedürftige Umstände. Als Tipp für Homepage Betreiber empfehlen wir alle kopierten oder unter Plagiatseinfluss gestalteten Inhalte mit inhaltlichen Unikaten zu ersetzen. Übrigens: An die suchmaschinenfreundliche, das Core Update berücksichtigende, Optimierung von Webseiten ist je nach Größe der Webseite unterschiedlich heranzugehen.

Heißes Thema – Muss man vor Negativ-SEO Angst haben?

Wer die TV Serie Dallas aus den 80er Jahren kennt, erinnert sich sicherlich an die Figur des J.R. Ewing, des vom Schauspieler Larry Hagman so glänzend dargestellten Fieslings. Nun, einige Entwicklungen in der Welt des Internet Marketing erinnern so ein bisschen an die Machenschaften von J.R., weil diese am besten einfach als fies bezeichnet werden können.

So haben sich einige Leute gedacht, man könnte sich oder seinen Klienten einen Vorteil verschaffen, indem man Negativ-SEO betreibt, also das Ranking von bestimmten Webseiten zu schädigen. Die Frage ob das möglich ist, ist viel diskutiert, vor allem in englischsprachigen Foren.

Also: Funktioniert Negativ-SEO? Vorerst wenden wir uns der Frage zu, wie man erkennt, ob man Ziel einer solchen Kampagne geworden ist. Eine Herabstufung im Ranking ist nicht aussagekräftig, da eine solche natürlich andere Ursachen haben kann und voraussetzen würde, dass Negativ-SEO funktioniert.

Eine wichtiger Aspekt in der Untersuchung ist, die Anzahl und Veränderung der eigenen Backlink Struktur zu prüfen und die Veränderungen zu beobachten. Fallen gute Links plötzlich weg, wäre dies ein Anzeichen einer Hacker Attacke, was allerdings auf eine Schwäche im eigenen Computer/Netzwerk bedeuten würde. Weiters sollte man die generelle Anzahl der Backlinks im Auge behalten, steigt diese kurzfristig gewaltig an, so sollte man prüfen warum – denn im Idealfall sollten die Backlinks ja aufgrund der Popularität der Seite ansteigen. Zuviele Links innerhalb kurzer Zeit könnte auf eine Negativ Spam Attacke hinweisen.

Die gute Nachricht ist, dass gut betreute und etablierte Seiten von der Gefahr weitgehend immun sind, vor allem dann wenn man sonst den Google Regeln brav folgt.

Google und die Renaissance des Journalismus

Umstrukturierungen, Einsparungen „Shareholder Value“ und andere, ähnliche Trends haben zu massiven Einsparungen in Medienkonzernen und bei Printmedien geführt. Qualitativ hochwertiger Journalismus hat darunter in den letzten Jahre oder sogar Jahrzehnten gelitten. Die Entwicklung des Internet hat die Margen für die Branche weiter fallen lassen. Doch die neuen Veränderungen in den Algorithmen der Suchmaschinen könnten einen grundsätzlichen Wandel in zurück zu Qualitätsjournalismus bringen. Seit 2011 setzen die Suchmaschinen verstärkt auf die Popularität von Inhalten. Dies ist zwar nicht gleichbeutend mit Qualität, jedoch sind gute Inhalte gefragt und werden in vieler Hinsicht belohnt. Kommt es zu einer Renaissance des Qualitäts-Journalismus?…… (mehr zu diesem Thema in den nächsten Wochen und Monaten).

Neues aus "Google Land"

Google hat nun einige Neuerungen in der Suchmethodik bekannt gegeben, die Insider nicht besonders überrascht haben. Die Struktur einer Webseite wird nun auch auf die Freundlichkeit bei Mobil-Geräten getestet. Das heißt, dass man die Struktur der Webseite anpassen muss, um nicht wichtige Punkte im Ranking einzubüßen. Dazu kommt noch, dass die Qualität der Inhalte neu bemessen und wichtger wird. Kopieren und abschreiben geht also gar nicht mehr, Plagiate sind endgültig out und werden von den Suchmaschinen auch abgestraft.

Apple ist die Melk-Kuh von Google

Wenn es um Mobilgeräte geht, dann ist Apple die ganz große Melk-Kuh von Google. Laut einer Studie der amerikanischen Investment Bank Goldman Sachs konnte Google im Jahr 2014 über 11 Milliarden US-Dollar Werbeeinnahmen von Mobilgeräten verbuchen, 75 % dieser Einnahmen kamen über Apple Geräte.