Web-Monitoring Glossar

Clipping Services
Ein Clipping Service (oder Presseclipping Dienst) ist eine Dienstleistung von Unternehmen, die anderen Unternehmen, die meist im Consumer-Bereich tätig sind Berichte, Artikel und weitere Veröffentlichungen über deren Produkte liefern. Früher wurden diese Dienste meist mit Papier und Schere (sog. Schnipsel-Dienste) getätigt, wo Zeitungsartikel über bestimmte Produkte ausgeschnitten und an die Unternehmen gesandt wurden. Heute greifen die Dienste auf professionelle Zeitschriften-Datenbanken zu.

Data-Mining
Unter Data-Mining versteht man die Anwendung von (statistisch-mathematischen) Methoden auf einen Datenbestand mit dem Ziel der Mustererkennung.
Quelle , Lizenz

HTML
Die Hypertext Markup Language (HTML, engl. Hypertext-Auszeichnungssprache), oft auch kurz als Hypertext bezeichnet, ist eine textbasierte Auszeichnungssprache zur Darstellung von Inhalten wie Texten, Bildern und Hyperlinks in Dokumenten.
Quelle, Lizenz

Internet-Monitoring
Synonym für Web-Monitoring

Newsgroups
Newsgroups sind virtuelle Diskussionsforen im Internet (früher auch abseits des Internets in selbstständigen (Mailbox-)Netzen), in denen zu einem umgrenzten Themenbereich Textbeiträge (auch Nachrichten, Artikel oder Postings genannt) ausgetauscht werden. Veröffentlicht ein Benutzer einen Artikel in einer Newsgroup, so wird dieser an einen Newsserver gesendet. Dieser kann den Artikel dann seinen Benutzern zur Verfügung stellen und an andere Server weiterleiten, die ihn wiederum ihren Benutzern zur Verfügung stellen.
Quelle, Lizenz

Parser
Ein Parser (engl. to parse „analysieren" bzw. von lateinisch pars „Teil"; im Deutschen gelegentlich auch Zerteiler) ist ein Computerprogramm, das in der Computertechnik für die Zerlegung und Umwandlung einer beliebigen Eingabe in ein für die Weiterverarbeitung brauchbares Format zuständig ist. Häufig werden Parser eingesetzt, um im Anschluss an den Analysevorgang die Semantik der Eingabe zu erschließen und daraufhin Aktionen durchzuführen.
Quelle, Lizenz

Spider
Ein Webcrawler (auch Crawler, oder Robot, kurz Bot) ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert. Webcrawler werden vor allem von Suchmaschinen eingesetzt.
Quelle, Lizenz

Stemming
Als Stemming (Grundformenreduktion, Normalformenreduktion) bezeichnet man im Information-Retrieval ein Verfahren, mit dem verschiedene morphologische Varianten eines Wortes auf ihren gemeinsamen Wortstamm zurückgeführt werden, z. B. schrieb auf schreiben und ausgehebelt auf aushebeln
Quelle, Lizenz

Text-Mining
Der Begriff Textmining (engl. text mining, von text data mining) bezeichnet die automatisierte Entdeckung neuer, richtiger und relevanter Informationen aus Textdaten. Mit statistischen und linguistischen Mitteln erschließt die Textmining-Software aus Texten Informationen, die die Benutzer in die Lage versetzen soll, ihr Wissen zu erweitern oder ihre Handlungen daran auszurichten.
Quelle, Lizenz

Thesaurus
Ein Thesaurus bzw. Wortnetz ist in der Dokumentationswissenschaft ein kontrolliertes Vokabular, dessen Begriffe durch Relationen miteinander verbunden sind. Die Bezeichnung wird gelegentlich auch für linguistische Thesauri oder wissenschaftliche Wortschatz-Sammlungen verwendet.
Quelle, Lizenz

Usenet
Das Usenet (ursprünglich Unix User Network) ist ein weltweites, elektronisches Netzwerk, das Diskussionsforen (sogenannte "Newsgroups") aller Art bereitstellt und an dem grundsätzlich jeder teilnehmen kann. Der Teilnehmer verwendet dazu üblicherweise einen Newsreader.
Quelle, Lizenz

XML
Die Extensible Markup Language (engl. für „erweiterbare Auszeichnungssprache"), abgekürzt XML, ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten in Form von Textdateien. XML wird bevorzugt für den Austausch von Daten zwischen unterschiedlichen IT-Systemen eingesetzt, speziell über das Internet
Quelle, Lizenz

Das Buch zum Thema

Marco Güldenring
Webmonitoring

Webmonitoring