#25 - Google LaMDA und was Menschen von einer KI erwarten mit Dr. Lisa Precht (IBM)
32 Minuten
Podcast
Podcaster
Beschreibung
vor 2 Jahren
Der Fall LaMDA hat dieses Jahr große Aufmerksamkeit in den Medien
ausgelöst. Der ehemalige Google KI-Forscher Blake Lemoin war nach
Selbsttests fest davon überzeugt, das Sprachmodell LaMDA hätte ein
Bewusstsein entwickelt. Er forderte von Google, dass LaMDA aus
ethischen Gründen zuerst nach seiner Zustimmung für weitere
Projekte gefragt werden müsse. Google lehnte diese Forderungen ab
und Lemoin veröffentlichte daraufhin seine Chats mit der
Künstlichen Intelligenz. Die Meinungen zu dem Vorfall sind nach wie
vor gespalten, aber bei einem Punkt scheinen sich die Experten
einig zu sein: Lemoin hat sich selbst bewusst oder unbewusst
getäuscht, indem er eine falsche Erwartungshaltung an die KI
geschaffen hatte. Die Erwartungshaltung von Nutzern an Technologie
oder Software ist womöglich einer der Faktoren, die beim Design
oftmals zu wenig berücksichtigt werden. Ein Produkt kann technisch
als auch funktional allen Anforderungen genügen, ein Nutzer mit
falscher Erwartungshaltung wird dennoch immer enttäuscht sein. Der
Fall LaMDA zeigt, wie stark dieses Phänomen besonders auf
Künstliche Intelligenz zutrifft. Schon der Begriff Künstliche
Intelligenz suggeriert Fähigkeiten, die in der Realität bisher
schwer zu erreichen sind. In der 25. Folge von „Chatbots und KI“
spricht Thomas Bahn mit der Psychologin Dr. Lisa Precht von IBM
unter anderem darüber, welche Erwartungen Benutzer von digitalen
Assistenten mit Künstlicher Intelligenz haben, wie diese
Erwartungshaltung entsteht und ob Chatbot LaMDA überhaupt ein
Bewusstsein entwickelt haben könnte. Hier finden Sie die Shownotes
der Folge:
https://www.assono.de/blog/chatbots-und-ki-25-google-lamda-und-was-menschen-von-einer-ki-erwarten-mit-dr-lisa-precht-ibm
ausgelöst. Der ehemalige Google KI-Forscher Blake Lemoin war nach
Selbsttests fest davon überzeugt, das Sprachmodell LaMDA hätte ein
Bewusstsein entwickelt. Er forderte von Google, dass LaMDA aus
ethischen Gründen zuerst nach seiner Zustimmung für weitere
Projekte gefragt werden müsse. Google lehnte diese Forderungen ab
und Lemoin veröffentlichte daraufhin seine Chats mit der
Künstlichen Intelligenz. Die Meinungen zu dem Vorfall sind nach wie
vor gespalten, aber bei einem Punkt scheinen sich die Experten
einig zu sein: Lemoin hat sich selbst bewusst oder unbewusst
getäuscht, indem er eine falsche Erwartungshaltung an die KI
geschaffen hatte. Die Erwartungshaltung von Nutzern an Technologie
oder Software ist womöglich einer der Faktoren, die beim Design
oftmals zu wenig berücksichtigt werden. Ein Produkt kann technisch
als auch funktional allen Anforderungen genügen, ein Nutzer mit
falscher Erwartungshaltung wird dennoch immer enttäuscht sein. Der
Fall LaMDA zeigt, wie stark dieses Phänomen besonders auf
Künstliche Intelligenz zutrifft. Schon der Begriff Künstliche
Intelligenz suggeriert Fähigkeiten, die in der Realität bisher
schwer zu erreichen sind. In der 25. Folge von „Chatbots und KI“
spricht Thomas Bahn mit der Psychologin Dr. Lisa Precht von IBM
unter anderem darüber, welche Erwartungen Benutzer von digitalen
Assistenten mit Künstlicher Intelligenz haben, wie diese
Erwartungshaltung entsteht und ob Chatbot LaMDA überhaupt ein
Bewusstsein entwickelt haben könnte. Hier finden Sie die Shownotes
der Folge:
https://www.assono.de/blog/chatbots-und-ki-25-google-lamda-und-was-menschen-von-einer-ki-erwarten-mit-dr-lisa-precht-ibm
Weitere Episoden
40 Minuten
vor 3 Wochen
5 Minuten
vor 2 Monaten
21 Minuten
vor 3 Monaten
28 Minuten
vor 3 Monaten
In Podcasts werben
Kommentare (0)