Seiten

Samstag, 28. Mai 2011

Suchmaschinenoptimierung Teil 2

Über die Zeiten hinweg haben sich gewisse Pardigmen der Suchmaschinenoptimierung herauskristallisiert, die natürlich untrennbar mit der Arbeitsweise der Suchmaschine verbunden sind:

  • Das COLT Prinzip
  • Suchbegriffe
  • Der Domainname
  • Hosting
  • Quelltext
  • Layout 
  • Grafiken
  • Inhalt
  • Navigation 
  • Metaangaben
  • Linkpopularität
Und natürlich noch viele weitere. Beginnen wir mit dem Colt Prinzip: C für Content. Der Content einer Seite sind die ( am besten einzigartigen ) für Nutzer interessanten und verlinkungswerten Inhalte. Gute Inhalte sind schwer zu erzeugen und zu bewerten, logischerweise aber genau das, was ein interessierter Nutzer will.
Das O steht für Optimization. Der Aufbau der Website spielt eine nicht unerhebliche Rolle, da die algoritmen der Suchmaschine die Seite nach einem gewissen Schema abarbeiten. Dieses Schema soll natürlich die Art simulieren, wie ein Nutzer die Seite sehen würde. andererseits soll aber auch die Information der seite so schnell wie möglich verarbeitet werden. Seiten, die diesem Prinzip nicht entsprechen kann es passieren, das ihre guten Inhalte von der Suchmaschine nicht erfasst werden und somit auch nicht gut bewertet werden können.
L ( Links ). Suchmaschinen bewerten auch, wie gut eine Seite ins Web eingebunden ist. Seiten die vielerorts referenziert werden bekommen eine höhere Bedeutung beigemessen und werden deswegen besser bewertet.
Zuletzt Time. Die Zeit, die eine Seite benötigt um Benerkt, vernetzt, analysiert usw. zu werden. Neue Seiten müssen erst wahrgenommen werden, bevor sie vielseitig genutzt werden können.

Donnerstag, 26. Mai 2011

Suchmaschinenoptimierung Teil 1

Suchmaschinenoptimierung oder was ist SEO ?

Mit dem aufstieg der Suchmaschinen als Wegweiser im Internet und dem ebenfalls aufkommenden eCommerce, dem Waren , Dienstleistungs und Softwareverkauf über das Internet wurde klar, dass nicht nur diejenigen Anbieter den besten Internetumsatz machen, die die besten Websites oder den besten Domainnamen haben, sondern diejenigen, die von den Suchmaschienen als "am meisten Zutreffend" in der Hierarchie angezeigt werden.

Jede Suchmaschine verfügt über Algorithmen oder Vorgehensweisen um Internetseiten gemäß Ihren Inhalten zu bewerten und den Suchenden genau das zu Zeigen, was diese sehen möchten. Da es keine künstliche Intelligenz gibt, die sich in den Suchenden hineinversetzen kann und danach in ihrem gewaltigen Gedächtnis nachschauen kann, was wohl am besten zutrifft, müssen diese Dinge von einem Programm bewertet werden. Da allerdings kein Programm perfekt ist, kann man es ein bischen betrügen und sich gegenüber seinen Konkurrenten in den Vordergrund mogeln, obwohl man eventell keinen besseren Content ( Inhalt für den sich die Nutzer interessieren und den die Suchmaschine eigentlich bewerten soll ) besitzt. Dieser Trend wurde in der vergangenheit stark Ausgenutzt und konnte denjenigen die wussten wie ein Vermögen einbringen. Allerdings schädigt diese Praxis logischerweise diejenigen, die Bessere Leistungen bringen und kein SEO betrieben haben und die Suchmaschinenbetreiber selbst, da Suchmaschinen, die schlechte Ergebnisse liefern nicht mehr genutzt werden.

So beginnt der Wettlauf zwischen denen, die bei der Maschine gut angezeigt werden wollen und dafür möglichst wenig tun wollen, und den Suchmaschinenbetreibern, die die Realität im Netz so bewerten müssen, wie ein kritischer Nuzter.

Mittwoch, 25. Mai 2011

Email und SMTP

SMTP ( Simple Mail Transport Portocol ) dient dem austausch und der Versendung von eMails über das Internet.

Zuerst etwas geschichtliches. Die Vergangenheit der Protokolles ist natürlich eng verbunden mit der Geschichte der eMail selbst. Die eMail war eine der ersten Anwendungen des am MIT für die US Luftwaffe ( airforce ) entwickelten ARPANET welches ursprünglich entwickelt wurde um die für das Verteidigungsministerium forschenden US Universitäten miteinander zu verbinden. Ursprünglich gab es noch keine Standarts für den Transport von Daten, allerdings existierte bereits zu diesem Zeitpunkt das noch heute vorhandene Konzept des dezentralen Netzwerkes. Zu diesem Zeitpunkt gab es bereits das Programm SNDMSG, welches den Benutzern von Großrechnern ein Kommunikation ( vermutlich über die verstreut leigenden Terminals) ermöglichte und Protokoll CPYNET für die Übertragung von Dateien zwischen Computern. Es existierten auch bereits elektronische Mailboxen, allerdings waren darin nur Datein abgelegt, die eben nur von bestimmten Benutzern gelesen werden konnten.
Tomlinson änderte SNDMSG derart ab, dass es nun möglich war, dateien zu ergänzen. Die erste Anwendung dieser Kombination war eine Nachricht von Tomlinson an seine Kollegen, in der er Ende 1971 mitteilte, dass man nun Nachrichten übers Netzwerk senden konnte, indem man dem Benutzernamen des Adressaten das Zeichen @ und den Hostnamen des Computers anfügte.

Dienstag, 24. Mai 2011

Flashspeicher Teil 5

Heute beschäftige ich mich mit dem NAND Flash.

Wie wir alle wissen bedeutet NAND, das die Technologie eine NAND Logik umsetzt. NAND und NOR sind beide vollständige Systeme zur Berechnung und in diesem fall besteht die serielle Anordnung der einzelnen Speicherzellen aus speziellen Metall - Oxid Feldeffekt Transistoren in NAND Gattern.

Es gibt vier Produzenten entsprechender Chips: Toshoba, Hynix und Samsung. Der Platzbedarf für eine Flash-Speicherzelle in NAND-Technik beträgt laut Toshiba nur etwa zwei fünftel der Fläche, die für eine Speicherzelle in NOR-Technik erforderlich ist. NAND-Flashspeicher arbeiten page- und blockorientiert. Das bedeutet, das dieinzelnen Speichersegmente als Blocks und Pages verwaltet werden. Mehrere Pages sind zu einem Block gruppiert. Pages können allerdings nur einmal beschrieben werden. Weitere Schreibvorgänge sind erst nach einem erneuten Löschen möglich.

Hier ein kleines Beispiel zur Verschaltung eines NAND-Gatters in einem binären Serienaddierer.
Quelle: Wikipedia

Bei Flash-Speichern im NAND Design kommt es sehr häufig vor, dass bereits zum Zeitpunkt der Auslieferung auf dem Träger einige  Blöcke vorhanden sind, die einen Defekt aufweisen. Diese werden schon vom Hersteller durch Tests lokalisiert und als funktionsuntüchtig deklariert. Meistens wird sichergestellt, dass der erste Block eines Speicher- bausteins für eine bestimmte Anzahl von Schreibvorgängen funktionsfähig ist.


Bei NAND-Flash-Speichern besitzt jede "Page" eine fest zugeordnete "Spare Page". Hier werden unter anderem Bad-Block-Markierungen abgelegt oder bei fehlerfreien Blöcken Korrekturdaten für eine Vorwärtsfehlerkorrektur (FEC) abgelegt, um mögliche Lesefehler korrigieren zu können.

Vorteile
  • sehr geringer Preis
  • hohe Schreib- und Lesegeschwindigkeiten
  • niedrigere Leistungsaufnahme während Programmierung
  • hohe Speicherkapazität
  • geringe Anzahl an Signalleitungen ermöglicht eine kostengünstige Ankoppelung an Controllersysteme
  • Busschnittstelle auf kommandobasis ermöglicht einen Einsatz mit größerer Speicherkapazität
Nachteile
  • verglichen mit NOR-Speichern ist hoher Softwareaufwand nötig
  • wegen der Zugriffsart können NAND-Speicher nicht direkt als Programmspeicher eingesetzt werden
  • nach 100.000 bis 1.000.000 Schreib-Lösch-Zyklen ist der Speicher nicht mehr nutzbar