Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

Toa

Alter Hase

  • »Toa« ist der Autor dieses Themas

Beiträge: 944

Beruf: Research associate

  • Private Nachricht senden

11

19.08.2008, 15:21

Hui da hab ich ja eine nette Diskusion los getreten =)
Ich danke euch für eure Antworten und werde mir das ganze mal anschaun ..thx

p0llux

Treue Seele

Beiträge: 101

Wohnort: Aachen

Beruf: HiWi (theo. Inf.)

  • Private Nachricht senden

12

19.08.2008, 19:57

@xardias: Stimmt natürlich, da hab' ich garnicht mehr dran gedacht :)

Ein Trend, oder vielmehr eine Idee, die unter dem tollen buzzword "semantic web" mitschippert ist die Klassifizierung oder Bewertung von Webseiten durch Maschinen, also Algorithmen. Unter anderem werden heute ja bereits Mailfilter oder z.B. firmeninterne Mailverteiler (Programme, die Mails an die Firma in gewisse Abteilungen weiterleiten) mit Hilfe von Datamining Techniken auf inhaltliche Muster untersucht.

Also ich denke alles in allem kann man generell in dieser Richtung (außer vielleicht bei den zugrundeliegenden Indexstrukturen) noch ziemlich viel Neues machen.

13

19.08.2008, 20:24

Zitat

Was hat die Aussage denn mit Algorithmen von Suchmaschinen zu tun? -> Bullshit?!
Hmm ... überleg mal nochmal scharf! Vllt. fällt dir eine etwas qualifiziertere Aussage als "Bullshit" ein ;)
Devil Entertainment :: Your education is our inspiration
Der Spieleprogrammierer :: Community Magazin
Merlin - A Legend awakes :: You are a dedicated C++ (DirectX) programmer and you have ability to work in a team? Contact us!
Siedler II.5 RttR :: The old settlers-style is comming back!

Also known as (D)Evil

p0llux

Treue Seele

Beiträge: 101

Wohnort: Aachen

Beruf: HiWi (theo. Inf.)

  • Private Nachricht senden

14

19.08.2008, 22:04

Zitat von »"Deviloper"«

Pff ... nja sagen wir mal so ... die algos sind nicht perfekt und kennen d.h. acuh nicht alle seiten die es gibt.


Okay, dann nochmal für dich:

Welcher Algorithmus ist perfekt? Kann man überhaupt so etwas wie Perfektionismus für Algorithmen definieren? Welcher Algorithmus kann die Unmengen von Passwortgeschützten Internetseiten knacken, runterladen und indizieren?

Falls das noch nich klar genug ist: Deine Antwort hat meiner Meinung nach null Sinngehalt. "Algorithmen sind nicht perfekt" und "Algorithmen kennen nicht alle Internetseiten die es gibt". Ich kann auch die Antwort neu formulieren zu "No shit, sherlock...", falls dir das besser passt.

Das Wort "perfekt" mit Algorithmen zu verwenden ist schon Unfug, weil du nie sicher sein kannst, dass kein besserer Algorithmus gefunden werden kann. Algorithmen kennen nicht nur "nicht alle Seiten", die kennen "keine Seiten". Das ist Aufgabe von Datenbanken, Indexen oder was auch immer. Die Algorithmen sind dazu dar, die Datenbestände zu verwalten.

Wenn ich jetzt immernoch nicht genug nachgedacht habe, um herauszufinden, was du meinst, so wirst du es mir wohl einfach sagen müssen ;)

15

19.08.2008, 22:39

Nein, es werden auch Seiten nicht erfasst, die nicht Passwort geschützt sind. Vllt. kommst du jetzt drauf ;) Ich wollte ihm nur von einer gewissen Richtung wegleiten.
Devil Entertainment :: Your education is our inspiration
Der Spieleprogrammierer :: Community Magazin
Merlin - A Legend awakes :: You are a dedicated C++ (DirectX) programmer and you have ability to work in a team? Contact us!
Siedler II.5 RttR :: The old settlers-style is comming back!

Also known as (D)Evil

Beneroth

Alter Hase

Beiträge: 969

Wohnort: Schweiz

Beruf: Software Entwickler

  • Private Nachricht senden

16

19.08.2008, 22:53

öhm, alle seiten zu erfassen...dazu müsste man theoretisch fast den doppelten speicher aller webserver im internet zusammen zu verfügung haben...vielleicht weniger, wenn das db-schema top und der algo minimalistisch ist... :roll:

ok, kann sein dass Google da bereits relativ nah dran ist.

aber in welche richtung wolltest du ihn lenken, devi?

Viktor

Alter Hase

Beiträge: 533

Wohnort: Ludwigshafen

Beruf: Student

  • Private Nachricht senden

17

20.08.2008, 10:55

Zitat von »"Beneroth"«

öhm, alle seiten zu erfassen...dazu müsste man theoretisch fast den doppelten speicher aller webserver im internet zusammen zu verfügung haben...vielleicht weniger, wenn das db-schema top und der algo minimalistisch ist... :roll:

Ich kenn mich zwar mit den Suchalgos nicht aus, aber das klingt doch etwas unlogisch. Speicher ist hier etwas fehl am Platze(, oder nicht ?). Ich muss doch nicht jede Seite doppel nochmal zusätzlich abspeichern. Wohl eher nur ein paar Informationen, die die Seite beschreiben etc. . Allg. wenn ich davon ausgehe, das eine Durchschnittsseite 4MB verbraucht (Zahlen sind erfunden...) dann brauch ich für den Beschreibungstext doch nur ein paar Zeilen in ner Textdatei die vll. ein paar kb wegnehmen. Die Volltextsuche ist doch immer "live"...Da kommt es dann eher auf die Rechenleistung an....

Zitat von »"Beneroth"«


ok, kann sein dass Google da bereits relativ nah dran ist.

aber in welche richtung wolltest du ihn lenken, devi?

Google erfasst nicht annähernd alle Seiten. Soweit mir bekannt 7,8% .
Northern Light ist da wohl noch mit an der Spitze mit 16%....

Werbeanzeige