Abo
  1. Foren
  2. Kommentare
  3. Wirtschaft
  4. Alle Kommentare zum Artikel
  5. › Wikipedia: Eine der größten…

Wenn es nicht auf Mediawiki liefe...

Anzeige
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 18:49

    ... würden sie für den Betrieb sogar noch weit weniger ausgeben müssen.

  2. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:04

    Hast du einen Vorschlag für ein besseres Wiki-System? (Eigeninteresse)

  3. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Hasler 21.12.12 - 19:16

    Mediawiki ist ein Nebenprojekt von Wikipedia und Open Source, es gibt keine Lizenzgebühren.
    Ich denke Wikipedia wird wissen wo man was optimieren muss um es effizienter laufen zu lassen, wen du Hardwarehunger oder sonstiges meinst.
    Selbst wen hinter Wikipedia eine optimierte extra angepasste Form vom Mediawiki läuft ist damit nur die halbe Sache getan und die Server müssen gut zusammenspielen.

    Was soll da Wikipedia anders machen?

  4. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:20

    Das kommt auf deinen Bedarf an. Solange es nicht allzu groß wird, ist es relativ egal, denke ich. Ich mag keins besonders gerne, nur Mediawiki besonders wenig.

  5. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:22

    Eher etwas kleineres natürlich.

    Finde bei Mediawiki die Pflege extrem umständlich, irgendwie. Aber vielleicht habe ich das auch einfach nur nicht so raus bekommen wie man da am Besten durchgeht.

  6. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:23

    Lizenzgebühren sind eben nur ein Teil der TCO. Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.
    Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend teurer: keine sauberen Tests, bösartiger Code etc pp.

  7. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:26

    Für kleine Sachen, z.B. Dokumentation mit mehreren Leuten, fand ich Wikka ganz nett. Hat aber natürlich auch wieder nervige Eigenschaften. Also so richtig "das ist super" habe ich nicht gefunden. Entweder es ist super einfach von der Funktionalität her oder es explodiert bei der Komplexität und Du musst bei jedem Update alles testen, weil es so umfangreich ist. Die vernünftige Mitte (noch dazu im Idealfall ohne PHP) habe ich nicht gefunden.

  8. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 20:00

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Lizenzgebühren sind eben nur ein Teil der TCO.

    Juhu Buzzword Bingo

    > Mediawiki ist dermaßen
    > ineffizient, dass man entsprechend mehr Server braucht.

    Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > teurer: keine sauberen Tests, bösartiger Code etc pp.

    Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der Entwicklung des MediaWikis.

  9. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:28

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Solange es nicht allzu groß wird

    Nur IST Wikipedia SEHR groß. ;) Was schlägst du also als Alternative zu MediaWiki für so Monster-Projekte wie Wikipedia vor?

  10. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:59

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.

    Also verglichen mit anderen Dienstleistern ist Wikipedia extrem "klein", was den Rechnerbedarf angeht. Sieht auch recht überschaubar aus:
    https://commons.wikimedia.org/wiki/File:Wikimedia-servers-2010-12-28.svg

    Solche Unternehmen wie Facebook (die auch nichts anderes machen als Bilder und Text anzuzeigen und zu speichern) haben da 10 bis 100 mal so viele Server.

    Außerdem geht'S in dem Artikel hier doch gerade darum, dass WP extrem wenig braucht... Bisschen unsinnig, dem einfach so pauschal zu widersprechen.

  11. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: andi_lala 21.12.12 - 22:13

    Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten, Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki vergleichen, bei dem eh praktisch nur gecachte also statische Seiten angezeigt werden.

  12. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 22:26

    andi_lala schrieb:
    --------------------------------------------------------------------------------
    > Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten,
    > Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki
    > vergleichen, bei dem eh praktisch nur gecachte also statische Seiten
    > angezeigt werden.

    Eben, 99% der User sind praktisch nur am Lesen. Und der Rest schreibt auch nicht dauernd.
    Dann genügt es auch vollkommen die aktuellste Version als statischen Inhalt in nen Varnish zu packen.

    => Der weitaus größte Teil der Anfragen kann statisch bedient werden ohne Last auf dem Applicationserver zu erzeugen.

    Ansonsten dürften die relevanten Inhalte locker komplett in den Arbeitsspeicher passen, vor allem wenn man mit ner vernünftigen Partitionierung in den Daten arbeitet, soweit das bei dem Volumen überhaupt nötig ist.

    Vermutlich werden sogar Suchanfragen eher über Google als über die interne Suche gestartet. Zumindest is mir aufgefallen, das praktisch alle die ich kenne Wikipedia quasi über die Googlesuche ansteuern.

    Das ist dann auch nochmal ne Lastersparnis, bzw. quasi sogar fast sowas wie ein "Beinfang Subvention" von Google.

  13. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Moe479 22.12.12 - 01:15

    wer subventioniert hier wen?

    wenn google nicht von wikipedia listen würde, würde ich eine andere suche bemühen, weil dann findet google nur noch werbeverseuchten müll ... insofern suventioniert wikiperdia google mit vorwiegend wertvollem content. :P

  14. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 01:50

    Moe479 schrieb:
    --------------------------------------------------------------------------------
    > wer subventioniert hier wen?
    >
    > wenn google nicht von wikipedia listen würde, würde ich eine andere suche
    > bemühen, weil dann findet google nur noch werbeverseuchten müll ...
    > insofern suventioniert wikiperdia google mit vorwiegend wertvollem content.
    > :P

    Stimmt, Symbiose wäre wohl treffender.

  15. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .............................x................... 22.12.12 - 01:55

    ich bin mit dokuwiki recht zufrieden, es gibt einiges an Plugins und relativ schlank..

    --
    "seit nichtmal 1! stunde registriert und schon so nervig --.--"

  16. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:21

    Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen will.

  17. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:25

    developer schrieb:
    > > Mediawiki ist dermaßen
    > > ineffizient, dass man entsprechend mehr Server braucht.
    >
    > Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP
    > Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in
    > PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    Das stimmt, es sind auch etliche eigene Plugins, weshalb man mit dem Dump auch nur bedingt was anfangen kann.

    > > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > > teurer: keine sauberen Tests, bösartiger Code etc pp.
    >
    > Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der
    > Entwicklung des MediaWikis.

    Das ist doch kaum zu trennen. Oder meinst Du, Wikipedia-Admins laden einfach die aktuelle beta vom mediawiki runter und spielen sie in's live-system?
    Wenn die Software besser wäre, würde der Gesamtaufwand sinken.

  18. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 13:24

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen
    > will.

    Komplette Neuentwicklungen sind meist keine Gute Idee.
    Das macht in der mehr neue Probleme als das Alte behoben werden, von wirklich kompletten Sackgassen mal abgesehen.

    Stetiges Refatoring ist meist der bessere Weg.

  19. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 14:19

    Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

  20. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 17:43

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst
    > die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der
    > Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

    Das kann durchaus das Ziel eines Refactorings sein. Nur halt Schritt für Schritt.
    So hat man dabei auch immer ein laufendes System und nicht das Problem "sofort" überall komplett neuen Code zu haben.

    Gerade der Wikitext-Parser liese sich ohne Probleme neu Schreiben ohne, dass man dazu das ganze andere System wegwerfen müsste.

    Ist ja nicht so, dass neuer Code zwingend besser oder gar Fehlerfrei wäre.

    Whatever you do, do it with: 5 + (sqrt(1-x^2(y-abs(x))^2))cos(30((1-x^2-(y-abs(x))^2))), x is from -1 to 1, y is from -1 to 1.5, z is from -100 to 4.5

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. über Ratbacher GmbH, Kirchheim unter Teck
  2. Robert Bosch GmbH, Leonberg
  3. Fachhochschule Südwestfalen, Meschede
  4. Robert Bosch GmbH, Abstatt

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 17,99€ statt 29,99€
  2. 379,90€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Großbatterien: Sechs 15-Megawatt-Anlagen sollen deutsches Stromnetz sichern
Großbatterien
Sechs 15-Megawatt-Anlagen sollen deutsches Stromnetz sichern
  1. HPE Hikari Dieser Supercomputer wird von Solarenergie versorgt
  2. Tesla Desperate Housewives erzeugen Strom mit Solarschindeln
  3. Solar Roadways Erste Solarzellen auf der Straße verlegt

Google, Apple und Mailaccounts: Zwei-Faktor-Authentifizierung richtig nutzen
Google, Apple und Mailaccounts
Zwei-Faktor-Authentifizierung richtig nutzen
  1. Bugs in Encase Mit dem Forensik-Tool die Polizei hacken
  2. Red Star OS Sicherheitslücke in Nordkoreas Staats-Linux
  3. 0-Day Tor und Firefox patchen ausgenutzten Javascript-Exploit

Steep im Test: Frei und einsam beim Bergsport
Steep im Test
Frei und einsam beim Bergsport
  1. PES 2017 Update mit Stadion und Hymnen von Borussia Dortmund
  2. Motorsport Manager im Kurztest Neustart für Sportmanager
  3. NBA 2K17 10.000 Schritte für Ingame-Boost

  1. Netzwerk: EWE reduziert FTTH auf 40 MBit/s im Upload
    Netzwerk
    EWE reduziert FTTH auf 40 MBit/s im Upload

    Wie das geht, einen Glasfaseranschluss zu drosseln, wollten wir von Ewe Tel wissen, und bekamen es heraus: " Glas kann natürlich mehr", hieß es.

  2. Rahmenvertrag: VG Wort will mit Unis neue Zwischenlösung für 2017 finden
    Rahmenvertrag
    VG Wort will mit Unis neue Zwischenlösung für 2017 finden

    Die Proteste und Weigerung der Hochschulen, dem Unirahmenvertrag der VG Wort zuzustimmen, zeigen Wirkung. Die VG Wort will noch in diesem Jahr eine Übergangslösung für 2017 erarbeiten. An der heftig kritisierten Einzelmeldung von Seminartexten will die VG Wort offenbar festhalten.

  3. Industriespionage: Wie Thyssenkrupp seine Angreifer fand
    Industriespionage
    Wie Thyssenkrupp seine Angreifer fand

    Wie schützt man sein Netzwerk, wenn man 150.000 Mitarbeiter und 500 Tochterunternehmen hat? Thyssenkrupp lernte nach einem Angriff, dass es zwei Dinge braucht: Ausreichend Ressourcen und Freiheit für das Team.


  1. 17:30

  2. 17:13

  3. 16:03

  4. 15:54

  5. 15:42

  6. 14:19

  7. 13:48

  8. 13:37