1. Foren
  2. Kommentare
  3. Sonstiges-Forum
  4. Alle Kommentare zum Artikel
  5. › OpenAI: Microsoft baut KI…

Ethik ist nur hinderlich

  1. Thema

Neues Thema


  1. Ethik ist nur hinderlich

    Autor: Sharra 14.03.23 - 09:20

    MS will KI-Bullshit so schnell wie möglich in den Markt kotzen. Da kann man keine Leute brauchen, die einem vorher sagen, dass das Ding rassistisch geworden ist.
    MS braucht den Shitstorm scheinbar.

  2. Re: Ethik ist nur hinderlich

    Autor: Oktavian 14.03.23 - 09:32

    > MS will KI-Bullshit so schnell wie möglich in den Markt kotzen. Da kann man
    > keine Leute brauchen, die einem vorher sagen, dass das Ding rassistisch
    > geworden ist.

    Das "Ding" ist nicht rassistisch, das Ding ist ein Algorithmus, der die Daten verarbeitet, die man ihm liefert. Diese Daten lassen Schlussfolgerungen zu, Statistik eben. Und diese Schlussfolgerungen mögen eben manchen nicht gefallen, da sie mit deren Weltbild kollidieren.

    Wenn aber Weltbild und Fakten nicht zusammenpassen, verliert das Weltbild.

    > MS braucht den Shitstorm scheinbar.

    Ich glaube, die können ihn ab. Aus dem letzten mal haben sie gelernt, aus Usereingaben zu lernen ist doof, dafür sorgt dann 4Chan. Aber aus sonstigen verfügbaren Texten zu lernen ist okay.

  3. Re: Ethik ist nur hinderlich

    Autor: dododo 14.03.23 - 09:59

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Das "Ding" ist nicht rassistisch, das Ding ist ein Algorithmus, der die
    > Daten verarbeitet, die man ihm liefert. Diese Daten lassen
    > Schlussfolgerungen zu, Statistik eben. Und diese Schlussfolgerungen mögen
    > eben manchen nicht gefallen, da sie mit deren Weltbild kollidieren.
    >
    > Wenn aber Weltbild und Fakten nicht zusammenpassen, verliert das Weltbild.

    Weil das Internet, auf dessen Basis die gerade populären Chat AIs arbeiten, nur auf Fakten besteht und Rassismus darin nie vorkommt? Es wurden doch schon mehrere Beispiele allein aus der MS Demo gezeigt, in welchen der Bot selbst Finanzzahlen (also harte Fakten) falsch wiedergegeben hat.
    Wenn die Daten die als Input dienen schon Mist sind, ist es auch der Output.



    2 mal bearbeitet, zuletzt am 14.03.23 10:01 durch dododo.

  4. Re: Ethik ist nur hinderlich

    Autor: Oktavian 14.03.23 - 10:09

    > Weil das Internet, auf dessen Basis die gerade populären Chat AIs arbeiten,
    > nur auf Fakten besteht und Rassismus darin nie vorkommt?

    Weil sich sowas durch die Vielzahl der Quellen, die man verarbeitet, wenn man mal seine kleine Filterblase verlässt, rausmittelt. Im Zweifel helfen da immer mehr Daten.

    > Es wurden doch
    > schon mehrere Beispiele allein aus der MS Demo gezeigt, in welchen der Bot
    > selbst Finanzzahlen (also harte Fakten) falsch wiedergegeben hat.
    > Wenn die Daten die als Input dienen schon Mist sind, ist es auch der
    > Output.

    Ja, und ein Team von 6 Mann/Frau/Whatever ist die Schlüsselmaßnahme, die sicherstellt, dass die Daten hinreichend, wahr und dem gerade erwünschten Weltbild entsprechen?

  5. Re: Ethik ist nur hinderlich

    Autor: dododo 14.03.23 - 10:22

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Weil sich sowas durch die Vielzahl der Quellen, die man verarbeitet, wenn
    > man mal seine kleine Filterblase verlässt, rausmittelt. Im Zweifel helfen
    > da immer mehr Daten.

    Und der durschnittliche öffentliche Diskurs im Internet bildet deiner Meinung nach ausschließlich Fakten ab?

    > Ja, und ein Team von 6 Mann/Frau/Whatever ist die Schlüsselmaßnahme, die
    > sicherstellt, dass die Daten hinreichend, wahr und dem gerade erwünschten
    > Weltbild entsprechen?

    In welchem Weltbild sind falsche Finanzzahlen den richtig? Es ist einfach Falsch anzunehmen, dass ein Algorithmus der mit ungefiltertem Input arbeitet zu faktisch korrektem Output kommt. Gerade die Sprachmodelle wie GPT sind für die inhaltlich korrekte Wiedergabe auch gar nicht wirklich ausgelegt, das hat auch nichts mit Statistik oder sonst was zu tun. Ob da so ein kleines Team viel ändern kann weiß ich nicht, aber grundsätzlich wäre es gut wenn es ein Team gibt das sich primär damit beschäftigt was das Modell produziert.

    Oder denkst du nicht, dass es falsch wäre dem Output solcher Modelle blind zu vertrauen?



    1 mal bearbeitet, zuletzt am 14.03.23 10:23 durch dododo.

  6. Re: Ethik ist nur hinderlich

    Autor: Oktavian 14.03.23 - 10:26

    dododo schrieb:
    --------------------------------------------------------------------------------
    > Oktavian schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Weil sich sowas durch die Vielzahl der Quellen, die man verarbeitet,
    > wenn
    > > man mal seine kleine Filterblase verlässt, rausmittelt. Im Zweifel
    > helfen
    > > da immer mehr Daten.
    >
    > Und der durschnittliche öffentliche Diskurs im Internet bildet deiner
    > Meinung nach ausschließlich Fakten ab?

    Lass die Foren weg, das ist Geblubber. Wenn man dann alle Bibliotheken, alle Veröffentlichungen, alle Zeitungen und Zeitschriften, alle Bücher nimmt, ja, das halte ich im Durchschnitt für eine gute Abbildung der Realität. Jedenfalls eine bessere Abbildung als jeder kuratierte Ausschnitt davon.

  7. Re: Ethik ist nur hinderlich

    Autor: dododo 14.03.23 - 10:45

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Lass die Foren weg, das ist Geblubber. Wenn man dann alle Bibliotheken,
    > alle Veröffentlichungen, alle Zeitungen und Zeitschriften, alle Bücher
    > nimmt, ja, das halte ich im Durchschnitt für eine gute Abbildung der
    > Realität. Jedenfalls eine bessere Abbildung als jeder kuratierte Ausschnitt
    > davon.

    Eben, schon sind wir beim Vorfiltern bzw. Kuratieren des Inputs. Und wirklich alle Zeitschriften? Ich meine am Kiosk ist eine beachtliche Zahl Klatschzeitschriften, viele mit ähnlichem (erdachten) Inhalt, was als Input dazu führen würde, dass ein Großteil der öffentlichen Personen entweder schwanger, in einer Ehekrise oder beides ist. Wer sucht dann aus welche rein kommen und welche nicht?
    Letztlich läuft es doch immer auf einen menschlichen Eingriff hinaus wenn man verhindern möchte, dass solche Modelle Quatsch produzieren. Dadurch ist so ein Modell aber auch niemals ein neutraler Fakten Generator sondern lediglich eine Zusammenfassung von beliebigem Input basierend auf der Auswahl dieser Menschen.

  8. Re: Ethik ist nur hinderlich

    Autor: Sharra 14.03.23 - 17:10

    Das Netz ist rassistisch.
    Die Welt ist rassistisch.
    JEDE Gesellschaft ist rassistisch. (Ja, selbst die Ululelekala im letzten Eck von Borneo)
    Folglich MUSS ein System, das mit realen Daten gefüttert wird, und nicht explizit jedes Mal eine reingewürgt bekommt, wenn es in diese Richtung tendiert, rassistisch werden.
    Man könnte dagegen wirken. Tut man nicht.

  9. Re: Ethik ist nur hinderlich

    Autor: Oktavian 14.03.23 - 17:40

    > Folglich MUSS ein System, das mit realen Daten gefüttert wird, und nicht
    > explizit jedes Mal eine reingewürgt bekommt, wenn es in diese Richtung
    > tendiert, rassistisch werden.
    > Man könnte dagegen wirken. Tut man nicht.

    Die Frage ist, ob ein System, das nicht den gesellschaftlichen Konventionen folgt, überhaupt nützlich ist.

    Wenn ich ein System beauftrage, Bewerberunterlagen vorzusortieren, dieses System aber mehr auf "Gerechtigkeit" als auf Fakten achtet, und zumindest Bewerber sehr anders auswählt, als ich sie gewählt hätte, dann werde ich wahrscheinlich in Zukunft wieder selbst sortieren.

  10. Re: Ethik ist nur hinderlich

    Autor: negiup 14.03.23 - 17:56

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Das "Ding" ist nicht rassistisch, das Ding ist ein Algorithmus, der die
    > Daten verarbeitet, die man ihm liefert. Diese Daten lassen
    > Schlussfolgerungen zu, Statistik eben. Und diese Schlussfolgerungen mögen
    > eben manchen nicht gefallen, da sie mit deren Weltbild kollidieren.

    Ein Schmarrn. Letztlich gibt es wohl kaum eine Aussage, die ChatGPT niemals ausgeben würde für beliebigen Prompt und Zufall. Wie man da sagen kann, dass da irgendwelche statistischen Schlussfolgerungen gezogen werden, ist mir schleierhaft.

    ChatGPT spult im Wesentlichen das ab, was eine Art Mainstream hören will. Weiterhin halluziniert ChatGPT bekanntermaßen Inhalte gelegentlich herbei.

    Beunruhigend, wenn schon Leute in dieser Halluzination leben wollen.



    1 mal bearbeitet, zuletzt am 14.03.23 18:00 durch negiup.

  11. Re: Ethik ist nur hinderlich

    Autor: dododo 15.03.23 - 07:56

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Wenn ich ein System beauftrage, Bewerberunterlagen vorzusortieren, dieses
    > System aber mehr auf "Gerechtigkeit" als auf Fakten achtet, und zumindest
    > Bewerber sehr anders auswählt, als ich sie gewählt hätte, dann werde ich
    > wahrscheinlich in Zukunft wieder selbst sortieren.

    Wenn wir Mal bei deinem einfachen Beispiel der Bewerbung bleiben, du wirst mir doch hoffentlich beipflichten, dass ein Kriterium wie die Hautfarbe bei der Auswahl eines Softwareentwicklers wohl keine Rolle spielen sollte. Entsprechend muss darauf geachtet werden, dass ein Algorithmus dies nicht in seine Entscheidung einfließen lässt, etwa weil die Bilder auch in die Bewertung einfließen. Da kann ein Modell schnell 'rassistisch' entscheiden, wenn bisherige Einstellungen die Datenbasis sind, da so eine Abweichung der Hautfarbe von der Mehrheit ggf. nachteilig bewertet wird. Das wäre jetzt nur ein offensichtlicher Punkt, solches Verhalten kann auch schnell über weitere Attribute abgeleitet werden.

    Und genau um sowas einzuordnen wäre doch ein Ethik Team da. Zum einen Beratend, also welche Aspekte gibt es zu beachten, wie kann ich Fehler vermeiden, zum andern Kontrollierend, also sind eben solche Muster erkennbar.

  12. Re: Ethik ist nur hinderlich

    Autor: Oktavian 15.03.23 - 08:24

    > Wenn wir Mal bei deinem einfachen Beispiel der Bewerbung bleiben, du wirst
    > mir doch hoffentlich beipflichten, dass ein Kriterium wie die Hautfarbe bei
    > der Auswahl eines Softwareentwicklers wohl keine Rolle spielen sollte.

    Genau das könnte eine Situation sein, in der Fakten und Weltbild kollidieren.

    Der Algorithmus analysiert die Bewerber der letzten 10 Jahre, die angenommen wurden, und den Erfolg, den sie im Unternehmen dann hatten. Dabei findet er Bewerber aller Hautfarben. Nun findet er vielleicht heraus, dass dunkelhäutige Bewerber mit einer Wahrscheinlichkeit von 0.1 innerhalb der nächsten Jahre Probleme machen, weiße Bewerber mit einer Wahrscheinlichkeit von 0,2 und asiatisch aussehende mit 0,04. Er bewertet nicht, warum das so ist, aber die Unterschiede sind signifikant. Es sind einfach Fakten, gesammelt über zigtausende Bewerber.

    Nun lege ich dem Algorithmus Bewerbermappen vor und bitte zu prognostizieren, mit welcher Wahrscheinlichkeit der vorgelegte Bewerber Probleme machen wird. Soll er neben all den anderen Daten dieses Faktum ignorieren, einfach weil es dem Weltbild widerspricht, also der Idee, wie Welt sein sollte? Oder soll der Algorithmus nicht eher die Mappen beurteilen in der Welt, in der er lebt?

  13. Re: Ethik ist nur hinderlich

    Autor: Oktavian 15.03.23 - 08:26

    > ChatGPT spult im Wesentlichen das ab, was eine Art Mainstream hören will.
    > Weiterhin halluziniert ChatGPT bekanntermaßen Inhalte gelegentlich herbei.

    Wir sprechen hier nicht über ChatGPT, sondern über KI-Algorithmen im Allgemeinen. Kannst weiterschlafen.

  14. Re: Ethik ist nur hinderlich

    Autor: dododo 15.03.23 - 09:26

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Genau das könnte eine Situation sein, in der Fakten und Weltbild
    > kollidieren.
    >
    > Der Algorithmus analysiert die Bewerber der letzten 10 Jahre, die
    > angenommen wurden, und den Erfolg, den sie im Unternehmen dann hatten.
    > Dabei findet er Bewerber aller Hautfarben. Nun findet er vielleicht heraus,
    > dass dunkelhäutige Bewerber mit einer Wahrscheinlichkeit von 0.1 innerhalb
    > der nächsten Jahre Probleme machen, weiße Bewerber mit einer
    > Wahrscheinlichkeit von 0,2 und asiatisch aussehende mit 0,04. Er bewertet
    > nicht, warum das so ist, aber die Unterschiede sind signifikant. Es sind
    > einfach Fakten, gesammelt über zigtausende Bewerber.
    >
    > Nun lege ich dem Algorithmus Bewerbermappen vor und bitte zu
    > prognostizieren, mit welcher Wahrscheinlichkeit der vorgelegte Bewerber
    > Probleme machen wird. Soll er neben all den anderen Daten dieses Faktum
    > ignorieren, einfach weil es dem Weltbild widerspricht, also der Idee, wie
    > Welt sein sollte? Oder soll der Algorithmus nicht eher die Mappen
    > beurteilen in der Welt, in der er lebt?

    Nein, das was du beschreibst, also die Festlegung von "Problematisch" primär an äußerlichen Merkmalen wäre ein rassistisches Verhalten, das hat nichts mit einem Weltbild und auch nichts mit (ordentlicher) Statistik zu tun. Die üblichen ML Algorithmus erkennen in der Regel auch keine Kausalität sondern nur Korrelationen. Ersetze einfach Hautfarbe durch Haarfarbe, das wäre doch auch kein Kriterium.

    Aber um zu meinem Beispiel zurück zu kommen. Wie verhindert du, dass Menschen mit roten Haaren die eigentlich bestens geeignet sind vorab aussortiert werden, weil bisherige Leute die eingestellt wurden nunmal alle keine roten Haare hatten, schlicht weil diese in den bisherigen Daten selten vorkommen?

  15. Re: Ethik ist nur hinderlich

    Autor: negiup 15.03.23 - 09:35

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > > ChatGPT spult im Wesentlichen das ab, was eine Art Mainstream hören
    > will.
    > > Weiterhin halluziniert ChatGPT bekanntermaßen Inhalte gelegentlich
    > herbei.
    >
    > Wir sprechen hier nicht über ChatGPT, sondern über KI-Algorithmen im
    > Allgemeinen. Kannst weiterschlafen.

    Diesen Post von dir habe ich zitiert:

    > > MS will KI-Bullshit so schnell wie möglich in den Markt kotzen. Da kann man
    > > keine Leute brauchen, die einem vorher sagen, dass das Ding rassistisch
    > > geworden ist.
    >
    > Das "Ding" ist nicht rassistisch, das Ding ist ein Algorithmus, der die Daten verarbeitet, die man ihm liefert. Diese Daten lassen Schlussfolgerungen zu, Statistik eben. Und diese Schlussfolgerungen mögen eben manchen nicht gefallen, da sie mit deren Weltbild kollidieren.
    >
    > Wenn aber Weltbild und Fakten nicht zusammenpassen, verliert das Weltbild.
    >
    > > MS braucht den Shitstorm scheinbar.
    >
    > Ich glaube, die können ihn ab. Aus dem letzten mal haben sie gelernt, aus Usereingaben zu lernen ist doof, dafür sorgt dann 4Chan. Aber aus sonstigen verfügbaren Texten zu lernen ist okay.

    Du behauptest jetzt, dass mit "das Ding" ein KI-Algorithmus im Allgemeinen gemeint sei. Aber im letzten Absatz schreibst du etwas von "aus Texten lernen". Nicht jeder allgemeine KI-Algorithmus lernt aus Texten. Damit widersprichst du dir selbst.

    Ich habe dich nun blockiert.

  16. Re: Ethik ist nur hinderlich

    Autor: Oktavian 15.03.23 - 09:37

    > Ersetze einfach Hautfarbe durch
    > Haarfarbe, das wäre doch auch kein Kriterium.

    Ich betreibe eine Agentur für Messen-Hostessen. Ich korreliere, wie oft welche Hostess für welche Messe gebucht wird. Dabei kommt heraus, dass blonde signifikant häufiger gebucht werden als braunhaarige. Nun bitte ich den Algorithmus, Bewerber anhand der Bewerbermappen vorzuqualifizieren...

    > Aber um zu meinem Beispiel zurück zu kommen. Wie verhindert du, dass
    > Menschen mit roten Haaren die eigentlich bestens geeignet sind vorab
    > aussortiert werden, weil bisherige Leute die eingestellt wurden nunmal alle
    > keine roten Haare hatten, schlicht weil diese in den bisherigen Daten
    > selten vorkommen?

    Das muss ich nicht verhindern. Das Algorithmus soll mir dienen, mich entlasten, mir Erfolg in meinem Unternehmen bringen. Wenn er deshalb gelegentlich mal falsch entscheidet, ist das vollkommen okay, solange es seltener passiert als ohne den Algorithmus und solange er mich entlastet. Wenn er also diesen einen rothaarigen Bewerber fälschlich aussortiert, kann ich damit leben. Ich setze den Algorithmus nicht ein, um eine bessere Welt zu kreieren, sondern um mich zu entlasten. Und schließlich mache ich auch Fehler. Viele Fehler. Ich mache nur ein klein wenig mehr richtig als falsch, und das reicht.

  17. Re: Ethik ist nur hinderlich

    Autor: dododo 15.03.23 - 09:52

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > Ich betreibe eine Agentur für Messen-Hostessen. Ich korreliere, wie oft
    > welche Hostess für welche Messe gebucht wird. Dabei kommt heraus, dass
    > blonde signifikant häufiger gebucht werden als braunhaarige. Nun bitte ich
    > den Algorithmus, Bewerber anhand der Bewerbermappen vorzuqualifizieren...

    Ich sprach oben von Softwareentwicklern...

    > Das muss ich nicht verhindern. Das Algorithmus soll mir dienen, mich
    > entlasten, mir Erfolg in meinem Unternehmen bringen. Wenn er deshalb
    > gelegentlich mal falsch entscheidet, ist das vollkommen okay, solange es
    > seltener passiert als ohne den Algorithmus und solange er mich entlastet.
    > Wenn er also diesen einen rothaarigen Bewerber fälschlich aussortiert, kann
    > ich damit leben. Ich setze den Algorithmus nicht ein, um eine bessere Welt
    > zu kreieren, sondern um mich zu entlasten. Und schließlich mache ich auch
    > Fehler. Viele Fehler. Ich mache nur ein klein wenig mehr richtig als
    > falsch, und das reicht.

    Und trainierst das Model so weiter diese Merkmale auszuschließen? Aber wenn rothaarige sich später beschweren systematisch Benachteiligt zu werden, kann das natürlich nicht sein, oder?
    Eben waren es noch vermeintlich unfehlbare Fakten und Statistik und jetzt ist das alles egal. Also letztlich willst du dann doch eigentlich das Algorithmen rassistisch agieren können. Sicher wenn einem das egal ist braucht man wohl auch kein Ethik Team.

    Naja mir scheint die Diskussion führt hier zu nichts, bin dann Mal raus.

  18. Re: Ethik ist nur hinderlich

    Autor: Oktavian 15.03.23 - 10:00

    > Ich sprach oben von Softwareentwicklern...

    Wenn es eine signifikante Korrelation zwischen Haarfarbe und Erfolg gibt, warum nicht. Dann bin ich brennend daran interessiert, das zu wissen. Und wenn sich ergibt, dass braunhaarige Programmierer besser sind als blonde, dann stelle ich bevorzugt braunhaarige ein. Ich tippe eher, haarlose Programmierer sind besser also welche mit Haaren.

    > Und trainierst das Model so weiter diese Merkmale auszuschließen? Aber wenn
    > rothaarige sich später beschweren systematisch Benachteiligt zu werden,
    > kann das natürlich nicht sein, oder?

    Haarfarbe fällt nicht unter das AGG. Ich darf rothaarige diskriminieren. :-)

    > Eben waren es noch vermeintlich unfehlbare Fakten und Statistik und jetzt
    > ist das alles egal. Also letztlich willst du dann doch eigentlich das
    > Algorithmen rassistisch agieren können.

    Nein, ich will das Algorithmen auf Basis von Fakten entscheiden, völlig frei von Weltbild. Wenn blonde Hostessen besser gebucht werden, dann ist das so. Wenn dunkelhäutige Programmierer in meinem Firma mehr Erfolg haben, dann ist das so. Wenn weiße krimineller sind, dann ist das so. Und wenn Männer mehr Fehlzeiten haben als Frauen, dann ist das so.

    Die Welt ist, wie sie ist, und der Algorithmus agiert in der Welt wie sie ist, und nicht in einer Welt, wie wir sie vielleicht gerne hätten. Ein Algorithmus, dem ich verbiete, Fakten der Welt zu lernen, wird schlechter agieren in dieser Welt als der, der sie lernen darf.

  19. Re: Ethik ist nur hinderlich

    Autor: Sharra 15.03.23 - 20:00

    Gerade bei Bewerbungen tust du dir mit einem rassistischen System keinen Gefallen. Was dir an guten Leuten entgeht, weil sie eben dummerweise eine Frau, schwarz, asiatisch, oder behindert sind...
    Klar, als Chef kannst du das machen. Ist ja deine eigene Dummheit, wenn diese hochqualifizierten Leute zur Konkurrenz gehen, und du deinen Drecksladen in die Pleite reitest.
    Intelligent ist es aber nicht.

  1. Thema

Neues Thema


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Gruppenleiter Bereich IT-Projekte (m/w/d) - Wirtschaftsinformatiker, Informatiker o. ä.
    BFT GmbH, Aachen
  2. Projektmitarbeiter*in (m/w/d) Digitalisierung der Hochschulverwaltung im Kompetenzzentrum E ... (m/w/d)
    Universität Bielefeld, Bielefeld
  3. Spezialist IT-Infrastruktur (m/w/d)
    BFT GmbH, Aachen
  4. Mitarbeiter IT-Support (m/w/d)
    Hottgenroth Software AG, Köln

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 399€ (UVP 549,99€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


.Net, Ubuntu, Github: Github erfindet sich neu und Ubuntu meißelt Container klein
.Net, Ubuntu, Github
Github erfindet sich neu und Ubuntu meißelt Container klein

Dev-Update Microsoft baut einen .Net-Stack für die Cloud, Canonical erstellt kleine Cloud-Angebote, Angular erfindet sich neu und Github treibt die Copilotisierung auf die Spitze.
Von Sebastian Grüner

  1. Rust, Python, Oxide Eigene Cloud-Hardware und Rust ohne Betriebssystem
  2. KI, Rust, Git KI für Datenbanken und Training für Rust
  3. KI, Linux, Honeycode Reichlich Programmier-KIs vor- und Honeycode eingestellt

7590 AX, 7530 AX UND 7510: Drei Fritzboxen für VDSL im Reichweitenvergleich
7590 AX, 7530 AX UND 7510
Drei Fritzboxen für VDSL im Reichweitenvergleich

Kann ein starker WLAN-Router eine komplette Wohnung lückenlos mit WLAN versorgen? Wir prüfen, wie gut drei aktuelle Wi-Fi-6-Fritzboxen mit DSL-Modem diese Aufgabe meistern.
Von Harald Karcher

  1. 1200 AX, 3000 AX und 6000 Drei Fritz-Repeater im Reichweitenvergleich
  2. Wi-Fi 6, nur 95 Euro, aber... Für wen ist die Fritzbox 7510 gedacht?
  3. DSL-Router von AVM im Test Die Fritzbox 7530 AX mit Wi-Fi 6 ist immer noch gut

Visualisierung: Mit Gradio eine Webapp für Python-Modelle erstellen
Visualisierung
Mit Gradio eine Webapp für Python-Modelle erstellen

Gradio ist eine Open-Source-Python-Bibliothek, mit der man schnell und einfach eine Webanwendung für Python-Applikationen - wie zum Beispiel ML-Modelle - erstellen kann. Wir erklären, wie.
Eine Anleitung von Antony Ghiroz

  1. Sentiment Analysis mit Python Ein Stimmungsbarometer für Texte
  2. Machine Learning Mit ML.NET eine Bildanalyse-App programmieren
  3. Dishbrain Militär fördert Computerchip mit menschlichen Gehirnzellen

  1. 49-Euro-Ticket: Start-up testet flexibles Deutschlandticket
    49-Euro-Ticket
    Start-up testet flexibles Deutschlandticket

    24 Stunden Kündigungsfrist und bis zu drei Monate Pause: Ein Landkreis, ein Verkehrsbetrieb und ein Start-up probieren ein flexibles Deutschlandticket aus.

  2. Augen: Besser sehen bei der Bildschirmarbeit
    Augen
    Besser sehen bei der Bildschirmarbeit

    Arbeitsplatzbrille, Blaulichtfilter, Glaukom: Was ist bei langen Arbeitszeiten am Monitor zu beachten? Eine Augenärztin gibt Tipps.

  3. Neue Angriffstechnik: Terrapin schwächt verschlüsselte SSH-Verbindungen
    Neue Angriffstechnik
    Terrapin schwächt verschlüsselte SSH-Verbindungen

    Ein Angriff kann wohl zur Verwendung weniger sicherer Authentifizierungsalgorithmen führen. Betroffen sind viele gängige SSH-Implementierungen.


  1. 12:45

  2. 12:30

  3. 12:13

  4. 12:00

  5. 11:53

  6. 11:38

  7. 11:18

  8. 11:03