• Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    Microsoft wollte auf Twitter mit Hilfe des Chat-Bots Tay seine künstliche Intelligenz testen. Als Jugendliche Figur sollte die KI mit anderen Usern agieren und von diesen auch lernen. Allerdings wurde es wohl ungewollt eher ein soziales Experiment, und ein misslungenes dazu, denn Tay ließ sich von Trollen verführen und geriet schnell auf die schiefe Bahn.



    Jugendlich und frisch sollte Tay wirken. Der Chat-Bot ging am 23.03.2016 Online mit einem harmlosen „Hello World“ online und sollte selbständig Postings und Chats mit den Usern ausführen. Am Anfang schien das Ganze auch recht normal zu laufen. Microsoft wollte so aus den Chats lernen und das Verhalten des Bots optimieren. Allerdings wurden dann in manchen Kreisen angeblich Lücken entdeckt und diese gezielt ausgenutzt.


    http://www.win-10-forum.de/artikel-attachments/6233-002.png

    So soll es möglich gewesen sein, dass man Tay so anschreiben konnte, dass sie Postings direkt 1:1 wiedergab. Relativ schnell wurde so aus dem unbekümmerten und offenen Programm ein Wesen mit misanthropischen Zügen das Alles und Jeden zu hassen schien. Es tauchten Postings auf bei denen die KI gegen Feministinnen wetterte, User als Daddys betitelte und nach Sex bettelte oder sogar zu Vernichtung Mexikos aufgerufen wurde. Als dann sogar schnell Äußerungen zu Hitler und dem Holocaust auftauchten zog man bei Microsoft die Notbremse um nahm Tay nach gerade einmal einem Tag vom Netz.


    http://www.win-10-forum.de/artikel-attachments/6234-003.png

    Microsoft hat sich mittlerweile dafür entschuldigt und noch einmal darauf hingewiesen, dass die Aussagen von Tay keinesfalls zu Microsoft gehören, sondern durch Trolle ausgelöst wurden. Man verweist auf zuvor erfolgreich verlaufene Versuche mit kleineren Gruppen, die aber wahrscheinlich besser beaufsichtigt waren. Auch ein Verweis auf Versuche in China mit XiaoIce ist wohl kein Maßstab, da dort das Netz vielleicht weniger frei ist.


    Selbst wenn man Tay dazu bringen konnte Tweets zu wiederholen bleibt doch die Frage offen, warum sie dann selber solche Bilder und Äußerungen verfassen konnte wie sie nun einmal kurzzeitig zu sehen waren? Ob Tay überhaupt wieder Online gehen wird ist aktuell aber ohnehin offen.


    Quelle: ZDNet

    Dieser Artikel war interessant bzw. lesenswert? Die Redaktion freut sich über jede Unterstützung wie z.B. die Nutzung unseres -Partner-Links oder unseres -Partner-Links . Du hilfst uns damit, weiterhin auf nervige Layer- sowie Popunder-Werbung zu verzichten und auch allgemein immer mehr Werbebanner abzubauen. Vielen Dank.
    Gefällt dir der Artikel

    Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    ?

    Meinung des Autors
    DAS lief wohl nicht so gut… Hattet Ihr euch mit Tay befasst?Jetzt kommentieren!
    Hinweise & Tipps:

    1. Lade dir unsere Windows-10-App herunter, um bei einem neuen Artikel eine Push-Benachrichtung auf deinem Smartphone / Tablet / Desktop-PC zu erhalten
    2. Trage dich in unseren Newsletter ein, um bei einem neuen Artikel per E-Mail informiert zu werden
    3. Oder folge uns auf Facebook, Google oder Twitter um keinen News- oder Tipp-Artikel mehr zu verpassen
    4. Besuche unseren Artikel Windows 10 Fragen und Antworten für Neueinsteiger
    5. Sofern du eine bestimmte Frage zu Windows 10 hast, stelle sie einfach direkt hier
    « Das Team des Windows-10-Forum wünscht allen Lesern ein frohes OsterfestTodo PC Trans Pro EaseUS – Software für fast 50 Euro 48 Stunden lang gratis! »
    Ähnliche News zum Artikel

    Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    Beam 2.0 - Microsofts Streamingdienst erhält größeres Update
    Microsoft hat mit Beam 2.0 nun endlich das seit längerem erwartete größere Update für seinen Streamingdienst ausgerollt. Mit der Version... mehr
    Nettoarbeitstage in Excel berechnen – So nutzt man Tabellen in Excel mit tatsächlichen Arbeitstagen
    Wenn man mit Tagen in Excel rechnet ist das ganz einfach. Will man aber ohne Wochenenden oder ohne andere Brücken-, Feier- oder... mehr
    Microsofts neuer Chat-Bot Zo ist verfügbar und macht vieles besser als Vorgänger Tay
    Als Microsoft die AI des Chat-Bots Tay auf Twitter testen wollte lief das Ganze so schlecht, dass man den Bot abschalten musste. Tay hatte... mehr
    Arbeitsspeicher mit der Windows-Speicherdiagnose testen – so funktioniert’s
    Ein Systemabsturz hängt in vielen Fällen mit einem fehlerhaften oder defekten RAM zusammen. Unter Windows kann der Arbeitsspeicher mittels... mehr
    Amazon Cyber Monday Woche – Hohe Rabatte bei Acer Monitoren, Warehouse Deals und Kindle
    Bald kommt der Black Friday, bei dem ja viele Firmen mit Rabatten scheinbar nur so um sich werfen. Amazon startet zuvor ja immer schon den... mehr

    Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    – deine Meinung ?
    Kommentare
    1. Avatar von Heinz
      Heinz -
      Da sieht man deutlich,welche psychopatische Idioten so an denBildschirmen sitzen!
    1. Avatar von Stadtmensch
      Stadtmensch -
      Tja, Jugendliche sind manchmal leicht indoktrinierbar.
      Unter diesem Gesichtspunkt betrachtet, hat Microsoft einen realistischen Bot erstellt. Jetzt hat sie halt Hausarrest, weil sie Mist gebaut hat. Da ist sie auch nicht die einzige Jugendliche.
    1. Avatar von chakkman
      chakkman -
      Zitat Zitat von Heinz Beitrag anzeigen
      Da sieht man deutlich,welche psychopatische Idioten so an denBildschirmen sitzen!
      Tja, so sind sie, die Kids von heute. Allerdings sind der Anteil der Internutzer von diesen Kids dann erst recht Idioten, denn im Internet kann man anonym mal so richtig die Sau rauslassen.
    Kommentar schreiben (auch als Gast möglich)

    z.B. "Gast" oder "Mike"

    Welche Jahreszeit beginnt im März?