Abo
  1. Foren
  2. Kommentare
  3. Wirtschaft
  4. Alle Kommentare zum Artikel
  5. › Wikipedia: Eine der größten…

Wenn es nicht auf Mediawiki liefe...

Anzeige
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 18:49

    ... würden sie für den Betrieb sogar noch weit weniger ausgeben müssen.

  2. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:04

    Hast du einen Vorschlag für ein besseres Wiki-System? (Eigeninteresse)

  3. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Hasler 21.12.12 - 19:16

    Mediawiki ist ein Nebenprojekt von Wikipedia und Open Source, es gibt keine Lizenzgebühren.
    Ich denke Wikipedia wird wissen wo man was optimieren muss um es effizienter laufen zu lassen, wen du Hardwarehunger oder sonstiges meinst.
    Selbst wen hinter Wikipedia eine optimierte extra angepasste Form vom Mediawiki läuft ist damit nur die halbe Sache getan und die Server müssen gut zusammenspielen.

    Was soll da Wikipedia anders machen?

  4. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:20

    Das kommt auf deinen Bedarf an. Solange es nicht allzu groß wird, ist es relativ egal, denke ich. Ich mag keins besonders gerne, nur Mediawiki besonders wenig.

  5. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:22

    Eher etwas kleineres natürlich.

    Finde bei Mediawiki die Pflege extrem umständlich, irgendwie. Aber vielleicht habe ich das auch einfach nur nicht so raus bekommen wie man da am Besten durchgeht.

  6. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:23

    Lizenzgebühren sind eben nur ein Teil der TCO. Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.
    Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend teurer: keine sauberen Tests, bösartiger Code etc pp.

  7. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:26

    Für kleine Sachen, z.B. Dokumentation mit mehreren Leuten, fand ich Wikka ganz nett. Hat aber natürlich auch wieder nervige Eigenschaften. Also so richtig "das ist super" habe ich nicht gefunden. Entweder es ist super einfach von der Funktionalität her oder es explodiert bei der Komplexität und Du musst bei jedem Update alles testen, weil es so umfangreich ist. Die vernünftige Mitte (noch dazu im Idealfall ohne PHP) habe ich nicht gefunden.

  8. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 20:00

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Lizenzgebühren sind eben nur ein Teil der TCO.

    Juhu Buzzword Bingo

    > Mediawiki ist dermaßen
    > ineffizient, dass man entsprechend mehr Server braucht.

    Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > teurer: keine sauberen Tests, bösartiger Code etc pp.

    Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der Entwicklung des MediaWikis.

  9. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:28

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Solange es nicht allzu groß wird

    Nur IST Wikipedia SEHR groß. ;) Was schlägst du also als Alternative zu MediaWiki für so Monster-Projekte wie Wikipedia vor?

  10. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:59

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.

    Also verglichen mit anderen Dienstleistern ist Wikipedia extrem "klein", was den Rechnerbedarf angeht. Sieht auch recht überschaubar aus:
    https://commons.wikimedia.org/wiki/File:Wikimedia-servers-2010-12-28.svg

    Solche Unternehmen wie Facebook (die auch nichts anderes machen als Bilder und Text anzuzeigen und zu speichern) haben da 10 bis 100 mal so viele Server.

    Außerdem geht'S in dem Artikel hier doch gerade darum, dass WP extrem wenig braucht... Bisschen unsinnig, dem einfach so pauschal zu widersprechen.

  11. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: andi_lala 21.12.12 - 22:13

    Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten, Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki vergleichen, bei dem eh praktisch nur gecachte also statische Seiten angezeigt werden.

  12. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 22:26

    andi_lala schrieb:
    --------------------------------------------------------------------------------
    > Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten,
    > Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki
    > vergleichen, bei dem eh praktisch nur gecachte also statische Seiten
    > angezeigt werden.

    Eben, 99% der User sind praktisch nur am Lesen. Und der Rest schreibt auch nicht dauernd.
    Dann genügt es auch vollkommen die aktuellste Version als statischen Inhalt in nen Varnish zu packen.

    => Der weitaus größte Teil der Anfragen kann statisch bedient werden ohne Last auf dem Applicationserver zu erzeugen.

    Ansonsten dürften die relevanten Inhalte locker komplett in den Arbeitsspeicher passen, vor allem wenn man mit ner vernünftigen Partitionierung in den Daten arbeitet, soweit das bei dem Volumen überhaupt nötig ist.

    Vermutlich werden sogar Suchanfragen eher über Google als über die interne Suche gestartet. Zumindest is mir aufgefallen, das praktisch alle die ich kenne Wikipedia quasi über die Googlesuche ansteuern.

    Das ist dann auch nochmal ne Lastersparnis, bzw. quasi sogar fast sowas wie ein "Beinfang Subvention" von Google.

  13. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Moe479 22.12.12 - 01:15

    wer subventioniert hier wen?

    wenn google nicht von wikipedia listen würde, würde ich eine andere suche bemühen, weil dann findet google nur noch werbeverseuchten müll ... insofern suventioniert wikiperdia google mit vorwiegend wertvollem content. :P

  14. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 01:50

    Moe479 schrieb:
    --------------------------------------------------------------------------------
    > wer subventioniert hier wen?
    >
    > wenn google nicht von wikipedia listen würde, würde ich eine andere suche
    > bemühen, weil dann findet google nur noch werbeverseuchten müll ...
    > insofern suventioniert wikiperdia google mit vorwiegend wertvollem content.
    > :P

    Stimmt, Symbiose wäre wohl treffender.

  15. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .............................x................... 22.12.12 - 01:55

    ich bin mit dokuwiki recht zufrieden, es gibt einiges an Plugins und relativ schlank..

    --
    "seit nichtmal 1! stunde registriert und schon so nervig --.--"

  16. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:21

    Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen will.

  17. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:25

    developer schrieb:
    > > Mediawiki ist dermaßen
    > > ineffizient, dass man entsprechend mehr Server braucht.
    >
    > Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP
    > Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in
    > PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    Das stimmt, es sind auch etliche eigene Plugins, weshalb man mit dem Dump auch nur bedingt was anfangen kann.

    > > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > > teurer: keine sauberen Tests, bösartiger Code etc pp.
    >
    > Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der
    > Entwicklung des MediaWikis.

    Das ist doch kaum zu trennen. Oder meinst Du, Wikipedia-Admins laden einfach die aktuelle beta vom mediawiki runter und spielen sie in's live-system?
    Wenn die Software besser wäre, würde der Gesamtaufwand sinken.

  18. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 13:24

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen
    > will.

    Komplette Neuentwicklungen sind meist keine Gute Idee.
    Das macht in der mehr neue Probleme als das Alte behoben werden, von wirklich kompletten Sackgassen mal abgesehen.

    Stetiges Refatoring ist meist der bessere Weg.

  19. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 14:19

    Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

  20. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 17:43

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst
    > die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der
    > Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

    Das kann durchaus das Ziel eines Refactorings sein. Nur halt Schritt für Schritt.
    So hat man dabei auch immer ein laufendes System und nicht das Problem "sofort" überall komplett neuen Code zu haben.

    Gerade der Wikitext-Parser liese sich ohne Probleme neu Schreiben ohne, dass man dazu das ganze andere System wegwerfen müsste.

    Ist ja nicht so, dass neuer Code zwingend besser oder gar Fehlerfrei wäre.

    Whatever you do, do it with: 5 + (sqrt(1-x^2(y-abs(x))^2))cos(30((1-x^2-(y-abs(x))^2))), x is from -1 to 1, y is from -1 to 1.5, z is from -100 to 4.5

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. Schaeffler Technologies AG & Co. KG, Herzogenaurach
  2. über Mentis International Human Resources GmbH, Nordbayern
  3. Bechtle Onsite Services GmbH, Neckarsulm
  4. Sonntag & Partner Partnerschaftsgesellschaft mbB, Augsburg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Blu-ray-Angebote
  1. 16,99€ (ohne Prime bzw. unter 29€ Einkauf + 3€ Versand)
  2. (u. a. Fast & Furious 1-7 Blu-ray 26,49€, Indiana Jones Complete Blu-ray 14,76€, The Complete...
  3. (u. a. The Big Bang Theory, The Vampire Diaries, True Detective)


Haben wir etwas übersehen?

E-Mail an news@golem.de


XPS 13 (9365) im Test: Dells Convertible zeigt alte Stärken und neue Schwächen
XPS 13 (9365) im Test
Dells Convertible zeigt alte Stärken und neue Schwächen
  1. Prozessor Intel wird Thunderbolt 3 in CPUs integrieren
  2. Schnittstelle Intel pflegt endlich Linux-Treiber für Thunderbolt
  3. Atom C2000 & Kaby Lake Updates beheben Defekt respektive fehlendes HDCP 2.2

Calliope Mini im Test: Neuland lernt programmieren
Calliope Mini im Test
Neuland lernt programmieren
  1. Arduino Cinque RISC-V-Prozessor und ESP32 auf einem Board vereint
  2. MKRFOX1200 Neues Arduino-Board erscheint mit kostenlosem Datentarif
  3. Creoqode 2048 Tragbare Spielekonsole zum Basteln erhältlich

Tado im Langzeittest: Am Ende der Heizperiode
Tado im Langzeittest
Am Ende der Heizperiode
  1. Speedport Smart Telekom bringt Smart-Home-Funktionen auf den Speedport
  2. Tapdo Das Smart Home mit Fingerabdrücken steuern
  3. Mehr Möbel als Gadget Eine Holzfernbedienung für das Smart Home

  1. Electro Fluidic Technology: Schnelles E-Paper-Display für Video-Anwendungen
    Electro Fluidic Technology
    Schnelles E-Paper-Display für Video-Anwendungen

    Displayweek 2017 E-Paper ist nicht nur für sein stromsparendes Konzept bekannt, sondern auch für eine Langsamkeit, die mitunter an Fallblattanzeiger erinnert. Forscher der South China Normal University arbeiten an einer schnellen Alternative - samt Farbe.

  2. Heiko Maas: "Kein Wunder, dass Facebook seine Vorgaben geheim hält"
    Heiko Maas
    "Kein Wunder, dass Facebook seine Vorgaben geheim hält"

    Über ein Leak sind interne Anweisungen von Facebook an die Öffentlichkeit gelangt. Nun sieht sich Bundesjustizminister Heiko Maas bestätigt: Die Kriterien über zu löschende Inhalte seien willkürlich. Außerdem kritisiert er die mangelnde Transparenz des sozialen Netzwerks.

  3. Virtual Reality: Oculus Rift unterstützt offiziell Roomscale-VR
    Virtual Reality
    Oculus Rift unterstützt offiziell Roomscale-VR

    Herumlaufen und sich mehr oder weniger frei bewegen: Das ist in der virtuellen Realität nun auch offiziell mit Oculus Rift möglich - sofern der Nutzer genug Sensoren besitzt.


  1. 10:35

  2. 12:54

  3. 12:41

  4. 11:44

  5. 11:10

  6. 09:01

  7. 17:40

  8. 16:40