Abo
  1. Foren
  2. Kommentare
  3. Wirtschaft
  4. Alle Kommentare zum Artikel
  5. › Wikipedia: Eine der größten…

Wenn es nicht auf Mediawiki liefe...

Anzeige
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 18:49

    ... würden sie für den Betrieb sogar noch weit weniger ausgeben müssen.

  2. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:04

    Hast du einen Vorschlag für ein besseres Wiki-System? (Eigeninteresse)

  3. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Hasler 21.12.12 - 19:16

    Mediawiki ist ein Nebenprojekt von Wikipedia und Open Source, es gibt keine Lizenzgebühren.
    Ich denke Wikipedia wird wissen wo man was optimieren muss um es effizienter laufen zu lassen, wen du Hardwarehunger oder sonstiges meinst.
    Selbst wen hinter Wikipedia eine optimierte extra angepasste Form vom Mediawiki läuft ist damit nur die halbe Sache getan und die Server müssen gut zusammenspielen.

    Was soll da Wikipedia anders machen?

  4. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:20

    Das kommt auf deinen Bedarf an. Solange es nicht allzu groß wird, ist es relativ egal, denke ich. Ich mag keins besonders gerne, nur Mediawiki besonders wenig.

  5. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:22

    Eher etwas kleineres natürlich.

    Finde bei Mediawiki die Pflege extrem umständlich, irgendwie. Aber vielleicht habe ich das auch einfach nur nicht so raus bekommen wie man da am Besten durchgeht.

  6. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:23

    Lizenzgebühren sind eben nur ein Teil der TCO. Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.
    Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend teurer: keine sauberen Tests, bösartiger Code etc pp.

  7. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:26

    Für kleine Sachen, z.B. Dokumentation mit mehreren Leuten, fand ich Wikka ganz nett. Hat aber natürlich auch wieder nervige Eigenschaften. Also so richtig "das ist super" habe ich nicht gefunden. Entweder es ist super einfach von der Funktionalität her oder es explodiert bei der Komplexität und Du musst bei jedem Update alles testen, weil es so umfangreich ist. Die vernünftige Mitte (noch dazu im Idealfall ohne PHP) habe ich nicht gefunden.

  8. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 20:00

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Lizenzgebühren sind eben nur ein Teil der TCO.

    Juhu Buzzword Bingo

    > Mediawiki ist dermaßen
    > ineffizient, dass man entsprechend mehr Server braucht.

    Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > teurer: keine sauberen Tests, bösartiger Code etc pp.

    Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der Entwicklung des MediaWikis.

  9. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:28

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Solange es nicht allzu groß wird

    Nur IST Wikipedia SEHR groß. ;) Was schlägst du also als Alternative zu MediaWiki für so Monster-Projekte wie Wikipedia vor?

  10. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:59

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.

    Also verglichen mit anderen Dienstleistern ist Wikipedia extrem "klein", was den Rechnerbedarf angeht. Sieht auch recht überschaubar aus:
    https://commons.wikimedia.org/wiki/File:Wikimedia-servers-2010-12-28.svg

    Solche Unternehmen wie Facebook (die auch nichts anderes machen als Bilder und Text anzuzeigen und zu speichern) haben da 10 bis 100 mal so viele Server.

    Außerdem geht'S in dem Artikel hier doch gerade darum, dass WP extrem wenig braucht... Bisschen unsinnig, dem einfach so pauschal zu widersprechen.

  11. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: andi_lala 21.12.12 - 22:13

    Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten, Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki vergleichen, bei dem eh praktisch nur gecachte also statische Seiten angezeigt werden.

  12. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 22:26

    andi_lala schrieb:
    --------------------------------------------------------------------------------
    > Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten,
    > Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki
    > vergleichen, bei dem eh praktisch nur gecachte also statische Seiten
    > angezeigt werden.

    Eben, 99% der User sind praktisch nur am Lesen. Und der Rest schreibt auch nicht dauernd.
    Dann genügt es auch vollkommen die aktuellste Version als statischen Inhalt in nen Varnish zu packen.

    => Der weitaus größte Teil der Anfragen kann statisch bedient werden ohne Last auf dem Applicationserver zu erzeugen.

    Ansonsten dürften die relevanten Inhalte locker komplett in den Arbeitsspeicher passen, vor allem wenn man mit ner vernünftigen Partitionierung in den Daten arbeitet, soweit das bei dem Volumen überhaupt nötig ist.

    Vermutlich werden sogar Suchanfragen eher über Google als über die interne Suche gestartet. Zumindest is mir aufgefallen, das praktisch alle die ich kenne Wikipedia quasi über die Googlesuche ansteuern.

    Das ist dann auch nochmal ne Lastersparnis, bzw. quasi sogar fast sowas wie ein "Beinfang Subvention" von Google.

  13. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Moe479 22.12.12 - 01:15

    wer subventioniert hier wen?

    wenn google nicht von wikipedia listen würde, würde ich eine andere suche bemühen, weil dann findet google nur noch werbeverseuchten müll ... insofern suventioniert wikiperdia google mit vorwiegend wertvollem content. :P

  14. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 01:50

    Moe479 schrieb:
    --------------------------------------------------------------------------------
    > wer subventioniert hier wen?
    >
    > wenn google nicht von wikipedia listen würde, würde ich eine andere suche
    > bemühen, weil dann findet google nur noch werbeverseuchten müll ...
    > insofern suventioniert wikiperdia google mit vorwiegend wertvollem content.
    > :P

    Stimmt, Symbiose wäre wohl treffender.

  15. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .............................x................... 22.12.12 - 01:55

    ich bin mit dokuwiki recht zufrieden, es gibt einiges an Plugins und relativ schlank..

    --
    "seit nichtmal 1! stunde registriert und schon so nervig --.--"

  16. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:21

    Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen will.

  17. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:25

    developer schrieb:
    > > Mediawiki ist dermaßen
    > > ineffizient, dass man entsprechend mehr Server braucht.
    >
    > Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP
    > Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in
    > PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    Das stimmt, es sind auch etliche eigene Plugins, weshalb man mit dem Dump auch nur bedingt was anfangen kann.

    > > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > > teurer: keine sauberen Tests, bösartiger Code etc pp.
    >
    > Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der
    > Entwicklung des MediaWikis.

    Das ist doch kaum zu trennen. Oder meinst Du, Wikipedia-Admins laden einfach die aktuelle beta vom mediawiki runter und spielen sie in's live-system?
    Wenn die Software besser wäre, würde der Gesamtaufwand sinken.

  18. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 13:24

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen
    > will.

    Komplette Neuentwicklungen sind meist keine Gute Idee.
    Das macht in der mehr neue Probleme als das Alte behoben werden, von wirklich kompletten Sackgassen mal abgesehen.

    Stetiges Refatoring ist meist der bessere Weg.

  19. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 14:19

    Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

  20. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 17:43

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst
    > die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der
    > Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

    Das kann durchaus das Ziel eines Refactorings sein. Nur halt Schritt für Schritt.
    So hat man dabei auch immer ein laufendes System und nicht das Problem "sofort" überall komplett neuen Code zu haben.

    Gerade der Wikitext-Parser liese sich ohne Probleme neu Schreiben ohne, dass man dazu das ganze andere System wegwerfen müsste.

    Ist ja nicht so, dass neuer Code zwingend besser oder gar Fehlerfrei wäre.

    Whatever you do, do it with: 5 + (sqrt(1-x^2(y-abs(x))^2))cos(30((1-x^2-(y-abs(x))^2))), x is from -1 to 1, y is from -1 to 1.5, z is from -100 to 4.5

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. ASYS Automatisierungssysteme GmbH, Dornstadt bei Ulm
  2. nobilia-Werke J. Stickling GmbH & Co. KG, Verl
  3. Elektronische Fahrwerksysteme GmbH, Ingolstadt
  4. THOMAS SABO GmbH & Co. KG, Lauf an der Pegnitz

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Blu-ray-Angebote
  1. 19,99€ (Vorbesteller-Preisgarantie)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Starship Technologies: Es wird immer nach Diebstahl und Vandalismus gefragt
Starship Technologies
Es wird immer nach Diebstahl und Vandalismus gefragt
  1. Recore Mein Buddy, der Roboter
  2. Weltraumforschung DFKI-Roboter soll auf dem Jupitermond Europa abtauchen
  3. Softrobotik Oktopus-Roboter wird mit Gas angetrieben

PES 2017 im Test: Vom Feeling her ein gutes Gefühl
PES 2017 im Test
Vom Feeling her ein gutes Gefühl

Classic Computing 2016: Wie Nordhorn für ein Wochenende zu Nerdhome wurde
Classic Computing 2016
Wie Nordhorn für ein Wochenende zu Nerdhome wurde
  1. Fifa 17 Was macht Dragon Age in meiner Fifa-Demo?
  2. Feuerwerkwettbewerb Pyronale 2016 Erst IT macht prächtige Feuerwerke möglich
  3. Flüge gecancelt Delta Airlines weltweit durch Computerpanne lahmgelegt

  1. Hilfe von Google: Brian Krebs' Blog ist nach DDoS-Angriff wieder erreichbar
    Hilfe von Google
    Brian Krebs' Blog ist nach DDoS-Angriff wieder erreichbar

    Der größte bislang bekannte DDoS-Angriff hat Brian Krebs nur kurzzeitig offline genommen. Das Blog des Sicherheitsforschers wird künftig von Googles Project Shield geschützt.

  2. Filmdatenbank: Schauspieler lassen ihr Alter aus dem Internet entfernen
    Filmdatenbank
    Schauspieler lassen ihr Alter aus dem Internet entfernen

    In Kalifornien ansässige Schauspieler können künftig verlangen, dass ihr Alter aus Datenbanken der Branche entfernt wird. So will es ein Gesetz gegen Altersdiskriminierung, das in Kalifornien verabschiedet wurde. Kritiker sehen dadurch die Redefreiheit eingeschränkt.

  3. Fortwo, Fortwo Cabrio und Forfour: Ab 2017 gibt es alle Smarts als Elektroautos
    Fortwo, Fortwo Cabrio und Forfour
    Ab 2017 gibt es alle Smarts als Elektroautos

    Smart will laut Medienbericht ab 2017 alle Fahrzeuge seiner Modellpalette auch mit Elektromotoren anbieten. Dazu gehören der Fortwo, das Fortwo Cabrio und der Forfour.


  1. 13:45

  2. 13:30

  3. 13:00

  4. 12:30

  5. 12:03

  6. 11:49

  7. 11:37

  8. 11:30