Abo
  1. Foren
  2. Kommentare
  3. Wirtschaft
  4. Alle Kommentare zum Artikel
  5. › Wikipedia: Eine der größten…

Wenn es nicht auf Mediawiki liefe...

Anzeige
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 18:49

    ... würden sie für den Betrieb sogar noch weit weniger ausgeben müssen.

  2. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:04

    Hast du einen Vorschlag für ein besseres Wiki-System? (Eigeninteresse)

  3. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Hasler 21.12.12 - 19:16

    Mediawiki ist ein Nebenprojekt von Wikipedia und Open Source, es gibt keine Lizenzgebühren.
    Ich denke Wikipedia wird wissen wo man was optimieren muss um es effizienter laufen zu lassen, wen du Hardwarehunger oder sonstiges meinst.
    Selbst wen hinter Wikipedia eine optimierte extra angepasste Form vom Mediawiki läuft ist damit nur die halbe Sache getan und die Server müssen gut zusammenspielen.

    Was soll da Wikipedia anders machen?

  4. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:20

    Das kommt auf deinen Bedarf an. Solange es nicht allzu groß wird, ist es relativ egal, denke ich. Ich mag keins besonders gerne, nur Mediawiki besonders wenig.

  5. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .ldap 21.12.12 - 19:22

    Eher etwas kleineres natürlich.

    Finde bei Mediawiki die Pflege extrem umständlich, irgendwie. Aber vielleicht habe ich das auch einfach nur nicht so raus bekommen wie man da am Besten durchgeht.

  6. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:23

    Lizenzgebühren sind eben nur ein Teil der TCO. Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.
    Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend teurer: keine sauberen Tests, bösartiger Code etc pp.

  7. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 21.12.12 - 19:26

    Für kleine Sachen, z.B. Dokumentation mit mehreren Leuten, fand ich Wikka ganz nett. Hat aber natürlich auch wieder nervige Eigenschaften. Also so richtig "das ist super" habe ich nicht gefunden. Entweder es ist super einfach von der Funktionalität her oder es explodiert bei der Komplexität und Du musst bei jedem Update alles testen, weil es so umfangreich ist. Die vernünftige Mitte (noch dazu im Idealfall ohne PHP) habe ich nicht gefunden.

  8. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 20:00

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Lizenzgebühren sind eben nur ein Teil der TCO.

    Juhu Buzzword Bingo

    > Mediawiki ist dermaßen
    > ineffizient, dass man entsprechend mehr Server braucht.

    Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > teurer: keine sauberen Tests, bösartiger Code etc pp.

    Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der Entwicklung des MediaWikis.

  9. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:28

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Solange es nicht allzu groß wird

    Nur IST Wikipedia SEHR groß. ;) Was schlägst du also als Alternative zu MediaWiki für so Monster-Projekte wie Wikipedia vor?

  10. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: NochEinLeser 21.12.12 - 21:59

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Mediawiki ist dermaßen ineffizient, dass man entsprechend mehr Server braucht.

    Also verglichen mit anderen Dienstleistern ist Wikipedia extrem "klein", was den Rechnerbedarf angeht. Sieht auch recht überschaubar aus:
    https://commons.wikimedia.org/wiki/File:Wikimedia-servers-2010-12-28.svg

    Solche Unternehmen wie Facebook (die auch nichts anderes machen als Bilder und Text anzuzeigen und zu speichern) haben da 10 bis 100 mal so viele Server.

    Außerdem geht'S in dem Artikel hier doch gerade darum, dass WP extrem wenig braucht... Bisschen unsinnig, dem einfach so pauschal zu widersprechen.

  11. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: andi_lala 21.12.12 - 22:13

    Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten, Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki vergleichen, bei dem eh praktisch nur gecachte also statische Seiten angezeigt werden.

  12. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 21.12.12 - 22:26

    andi_lala schrieb:
    --------------------------------------------------------------------------------
    > Naja Facebook mit den ganzen interaktiven Elementen (Chats, Nachrichten,
    > Benachrichtigungen, Timeline usw.) kann man nicht mit einem einfachen Wiki
    > vergleichen, bei dem eh praktisch nur gecachte also statische Seiten
    > angezeigt werden.

    Eben, 99% der User sind praktisch nur am Lesen. Und der Rest schreibt auch nicht dauernd.
    Dann genügt es auch vollkommen die aktuellste Version als statischen Inhalt in nen Varnish zu packen.

    => Der weitaus größte Teil der Anfragen kann statisch bedient werden ohne Last auf dem Applicationserver zu erzeugen.

    Ansonsten dürften die relevanten Inhalte locker komplett in den Arbeitsspeicher passen, vor allem wenn man mit ner vernünftigen Partitionierung in den Daten arbeitet, soweit das bei dem Volumen überhaupt nötig ist.

    Vermutlich werden sogar Suchanfragen eher über Google als über die interne Suche gestartet. Zumindest is mir aufgefallen, das praktisch alle die ich kenne Wikipedia quasi über die Googlesuche ansteuern.

    Das ist dann auch nochmal ne Lastersparnis, bzw. quasi sogar fast sowas wie ein "Beinfang Subvention" von Google.

  13. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: Moe479 22.12.12 - 01:15

    wer subventioniert hier wen?

    wenn google nicht von wikipedia listen würde, würde ich eine andere suche bemühen, weil dann findet google nur noch werbeverseuchten müll ... insofern suventioniert wikiperdia google mit vorwiegend wertvollem content. :P

  14. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 01:50

    Moe479 schrieb:
    --------------------------------------------------------------------------------
    > wer subventioniert hier wen?
    >
    > wenn google nicht von wikipedia listen würde, würde ich eine andere suche
    > bemühen, weil dann findet google nur noch werbeverseuchten müll ...
    > insofern suventioniert wikiperdia google mit vorwiegend wertvollem content.
    > :P

    Stimmt, Symbiose wäre wohl treffender.

  15. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: .............................x................... 22.12.12 - 01:55

    ich bin mit dokuwiki recht zufrieden, es gibt einiges an Plugins und relativ schlank..

    --
    "seit nichtmal 1! stunde registriert und schon so nervig --.--"

  16. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:21

    Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen will.

  17. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 10:25

    developer schrieb:
    > > Mediawiki ist dermaßen
    > > ineffizient, dass man entsprechend mehr Server braucht.
    >
    > Wenn ich mich richtig erinner hat Wikipedia im Gegensatz zu der reinen PHP
    > Downloadversion von Mediawiki für Normalsterbliche einiges von der Logik in
    > PECLs ausgelagert. Auf jeden Fall läuft da keine Standard-MediaWiki.

    Das stimmt, es sind auch etliche eigene Plugins, weshalb man mit dem Dump auch nur bedingt was anfangen kann.

    > > Alle Entwicklung kostet auch entsprechend, weil der Code (vor allem der
    > > Wikitext2HTML-Parser, das Kernstück eines Wikis) beschissen
    > > zusammengefrickelt ist. Und sowas macht dann eben alles entsprechend
    > > teurer: keine sauberen Tests, bösartiger Code etc pp.
    >
    > Ich glaub du verwechselst hier gerade den Betrieb von WIkipedia mit der
    > Entwicklung des MediaWikis.

    Das ist doch kaum zu trennen. Oder meinst Du, Wikipedia-Admins laden einfach die aktuelle beta vom mediawiki runter und spielen sie in's live-system?
    Wenn die Software besser wäre, würde der Gesamtaufwand sinken.

  18. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 13:24

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Neu entwickeln, dieses mal sauber und mit einem Plan, was man erreichen
    > will.

    Komplette Neuentwicklungen sind meist keine Gute Idee.
    Das macht in der mehr neue Probleme als das Alte behoben werden, von wirklich kompletten Sackgassen mal abgesehen.

    Stetiges Refatoring ist meist der bessere Weg.

  19. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: hansi110 22.12.12 - 14:19

    Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

  20. Re: Wenn es nicht auf Mediawiki liefe...

    Autor: developer 22.12.12 - 17:43

    hansi110 schrieb:
    --------------------------------------------------------------------------------
    > Das Refactoring des Cores wäre aber praktisch eine Neuentwicklung. Selbst
    > die MW-Developer stöhnen, wie schlimm das ganze ist und dass vor allem der
    > Wikitext-Parser eine unglaublisch bösartige Ansammlung von Hacks ist.

    Das kann durchaus das Ziel eines Refactorings sein. Nur halt Schritt für Schritt.
    So hat man dabei auch immer ein laufendes System und nicht das Problem "sofort" überall komplett neuen Code zu haben.

    Gerade der Wikitext-Parser liese sich ohne Probleme neu Schreiben ohne, dass man dazu das ganze andere System wegwerfen müsste.

    Ist ja nicht so, dass neuer Code zwingend besser oder gar Fehlerfrei wäre.

    Whatever you do, do it with: 5 + (sqrt(1-x^2(y-abs(x))^2))cos(30((1-x^2-(y-abs(x))^2))), x is from -1 to 1, y is from -1 to 1.5, z is from -100 to 4.5

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. Robert Bosch GmbH, Schwieberdingen
  2. Deutsche Telekom AG, Bonn, Darmstadt, Berlin
  3. Simovative GmbH, München
  4. xbAV Beratungssoftware GmbH, Saarbrücken

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. ab 224,90€ bei Caseking gelistet
  2. 84,90€
  3. ab 649,90€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Creators Update im Test: Erhöhter Reifegrad für Windows 10
Creators Update im Test
Erhöhter Reifegrad für Windows 10
  1. Microsoft Zwei große Updates pro Jahr für Windows 10
  2. Windows 10 Version 17xx-2 Stromsparmodus kommt für die nächste Windows-Version
  3. Windows as a Service Die erste Windows-10-Version hat noch drei Wochen Support

Moto G5 und Moto G5 Plus im Test: Lenovo kehrt zur bewährten Motorola-Tradition zurück
Moto G5 und Moto G5 Plus im Test
Lenovo kehrt zur bewährten Motorola-Tradition zurück
  1. Miix 720 Lenovos High-End-Detachable ist ab 1.200 Euro erhältlich
  2. Lenovo Händler nennt Details des Moto G5
  3. Miix 320 Daten zu Lenovos neuem 2-in-1 vorab veröffentlicht

Miniatur Wunderland: Schiffe versenken die schönsten Pläne
Miniatur Wunderland
Schiffe versenken die schönsten Pläne
  1. Transport Üo, der fahrbare Ball
  2. Transport Sea Bubbles testet foilendes Elektroboot
  3. Verkehr Eine Ampel mit Kamera und Gesichtserkennung

  1. OWASP Top 10: Die zehn wichtigsten Sicherheitsrisiken bekommen ein Update
    OWASP Top 10
    Die zehn wichtigsten Sicherheitsrisiken bekommen ein Update

    Risiken durch Injections, Fehler beim Session Management und XSS bleiben weiterhin hoch. Im vorliegenden Entwurf finden sich neben bekannten Sicherheitslücken jedoch auch zwei neue Top-10-Kandidaten. Wir stellen die wichtigsten Änderungen und deren mögliche Folgen vor.

  2. Apple Watch: Apps von Amazon, Ebay und Google verschwunden
    Apple Watch
    Apps von Amazon, Ebay und Google verschwunden

    Die Apps von Amazon, Ebay und Google Maps werden nicht mehr für die Apple Watch angeboten. Wer die iPhone-App für die Uhr aktualisiert, verliert die Anwendungen.

  3. Tim Dashwood: Entwickler von 360VR Toolbox verschenkt seine Software
    Tim Dashwood
    Entwickler von 360VR Toolbox verschenkt seine Software

    Der Entwickler der 360VR Toolbox für Final Cut Pro, Tim Dashwood, geht zu Apple. Die Software seines Unternehmens, die für die Erstellung und Bearbeitung stereoskopischer 3D-Videos gedacht ist, verschenkt er.


  1. 09:13

  2. 07:40

  3. 07:24

  4. 12:40

  5. 11:55

  6. 15:19

  7. 13:40

  8. 11:00