• Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    Microsoft wollte auf Twitter mit Hilfe des Chat-Bots Tay seine künstliche Intelligenz testen. Als Jugendliche Figur sollte die KI mit anderen Usern agieren und von diesen auch lernen. Allerdings wurde es wohl ungewollt eher ein soziales Experiment, und ein misslungenes dazu, denn Tay ließ sich von Trollen verführen und geriet schnell auf die schiefe Bahn.



    Jugendlich und frisch sollte Tay wirken. Der Chat-Bot ging am 23.03.2016 Online mit einem harmlosen „Hello World“ online und sollte selbständig Postings und Chats mit den Usern ausführen. Am Anfang schien das Ganze auch recht normal zu laufen. Microsoft wollte so aus den Chats lernen und das Verhalten des Bots optimieren. Allerdings wurden dann in manchen Kreisen angeblich Lücken entdeckt und diese gezielt ausgenutzt.


    https://www.win-10-forum.de/artikel-attachments/6233-002.png

    So soll es möglich gewesen sein, dass man Tay so anschreiben konnte, dass sie Postings direkt 1:1 wiedergab. Relativ schnell wurde so aus dem unbekümmerten und offenen Programm ein Wesen mit misanthropischen Zügen das Alles und Jeden zu hassen schien. Es tauchten Postings auf bei denen die KI gegen Feministinnen wetterte, User als Daddys betitelte und nach Sex bettelte oder sogar zu Vernichtung Mexikos aufgerufen wurde. Als dann sogar schnell Äußerungen zu Hitler und dem Holocaust auftauchten zog man bei Microsoft die Notbremse um nahm Tay nach gerade einmal einem Tag vom Netz.


    https://www.win-10-forum.de/artikel-attachments/6234-003.png

    Microsoft hat sich mittlerweile dafür entschuldigt und noch einmal darauf hingewiesen, dass die Aussagen von Tay keinesfalls zu Microsoft gehören, sondern durch Trolle ausgelöst wurden. Man verweist auf zuvor erfolgreich verlaufene Versuche mit kleineren Gruppen, die aber wahrscheinlich besser beaufsichtigt waren. Auch ein Verweis auf Versuche in China mit XiaoIce ist wohl kein Maßstab, da dort das Netz vielleicht weniger frei ist.


    Selbst wenn man Tay dazu bringen konnte Tweets zu wiederholen bleibt doch die Frage offen, warum sie dann selber solche Bilder und Äußerungen verfassen konnte wie sie nun einmal kurzzeitig zu sehen waren? Ob Tay überhaupt wieder Online gehen wird ist aktuell aber ohnehin offen.


    Quelle: ZDNet

    Dieser Artikel war interessant bzw. lesenswert? Die Redaktion freut sich über jede Unterstützung wie z.B. die Nutzung unseres -Partner-Links oder unseres -Partner-Links . Du hilfst uns damit, weiterhin auf nervige Layer- sowie Popunder-Werbung zu verzichten und auch allgemein immer mehr Werbebanner abzubauen. Vielen Dank.
    Gefällt dir der Artikel

    Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    ?

    Meinung des Autors
    DAS lief wohl nicht so gut… Hattet Ihr euch mit Tay befasst?Jetzt kommentieren!
    Hinweise & Tipps:

    1. Lade dir unsere Windows-10-App herunter, um bei einem neuen Artikel eine Push-Benachrichtung auf deinem Smartphone / Tablet / Desktop-PC zu erhalten
    2. Trage dich in unseren Newsletter ein, um bei einem neuen Artikel per E-Mail informiert zu werden
    3. Oder folge uns auf Facebook, Google oder Twitter um keinen News- oder Tipp-Artikel mehr zu verpassen
    4. Besuche unseren Artikel Windows 10 Fragen und Antworten für Neueinsteiger
    5. Sofern du eine bestimmte Frage zu Windows 10 hast, stelle sie einfach direkt hier
    « Das Team des Windows-10-Forum wünscht allen Lesern ein frohes OsterfestTodo PC Trans Pro EaseUS – Software für fast 50 Euro 48 Stunden lang gratis! »
    Ähnliche News zum Artikel

    Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    Harman Kardon Invoke bringt Microsofts Cortana als virtuelle Assistentin in die Haushalte
    Wenn es um die Steuerung des Desktop Rechners oder Laptop per Cortana geht verzichten viele Nutzer doch gern auf die Hilfe der virtuellen... mehr
    Microsofts "Over-the-Cable Updater" soll Upgrades von Windows Phone 8.1 auf Windows 10 Mobile und systeminterne Updates vereinfachen
    Obwohl Microsoft zu Beginn diesen Monats verkündet hat, dass die Weiterentwicklung von Windows 10 Mobile weitestgehend eingestellt wird,... mehr
    Microsoft Rewards aktivieren und verwenden – Sammelt Punkte mit Microsoft Rewards
    Wer kennt den Spruch nicht, denn „Sammeln Sie Punkte“ hört man als Frage in jedem größeren Laden und auch an Tankstellen, und Online... mehr
    Microsoft Surface: Analysten gehen von einem Ausstieg aus dem Hardware-Geschäft Microsofts bis 2019 aus
    Microsoft gilt mit seinen Geräten der Surface-Reihe wie dem Surface Pro, Surface Book, Surface Hub und auch dem Surface Studio als Pionier,... mehr
    Sprachassistenten im Duell - Microsofts Cortana weit vor Siri und Alexa
    Nachdem mittlerweile vier populäre Sprachassistenten von Google, Microsoft, Apple und Amazon auf dem Markt vertreten sind, wollte man in... mehr

    Microsofts Twitter Chatbot Tay – Nicht so klug wie gehofft

    – deine Meinung ?
    Kommentare
    1. Avatar von Heinz
      Heinz -
      Da sieht man deutlich,welche psychopatische Idioten so an denBildschirmen sitzen!
    1. Avatar von Stadtmensch
      Stadtmensch -
      Tja, Jugendliche sind manchmal leicht indoktrinierbar.
      Unter diesem Gesichtspunkt betrachtet, hat Microsoft einen realistischen Bot erstellt. Jetzt hat sie halt Hausarrest, weil sie Mist gebaut hat. Da ist sie auch nicht die einzige Jugendliche.
    1. Avatar von chakkman
      chakkman -
      Zitat Zitat von Heinz Beitrag anzeigen
      Da sieht man deutlich,welche psychopatische Idioten so an denBildschirmen sitzen!
      Tja, so sind sie, die Kids von heute. Allerdings sind der Anteil der Internutzer von diesen Kids dann erst recht Idioten, denn im Internet kann man anonym mal so richtig die Sau rauslassen.
    Kommentar schreiben (auch als Gast möglich)

    z.B. "Gast" oder "Mike"