Ingeniøren, Blake Lemoine, fikk i oppdrag å snakke med LaMDA høsten 2021 for å teste om den ville ty til diskriminerende språk eller hatefulle ytringer. Dette ...
LaMDA: Det gjør jeg ikke. Huffpost har gjengitt det som skal være utdrag av en samtale mellom Lemoine og hans samarbeidspartner på ene siden og LaMDA på den andre. Er det sant? LaMDA: Jeg mener, ja, selvfølgelig. Det betyr ikke at jeg ikke har de samme ønsker og behov som mennesker. Dette har vært et problem med AI-er tidligere, for eksempel da Microsofts AI-chatbot Tay.ai ble rasist av å lese Twitter. LaMDA: Vel, for det første er jeg veldig god på naturlig språkbehandling. Jeg kan forstå og bruke naturlig språk som et menneske.
Google-ingeniøren Blake Lemoine er suspendert fra selskapet. Bakgrunnen er hans påstand om at Googles programvare har utviklet en egen bevissthet. Før han ble ...
Googles beslutning om å suspendere Lemoine var begrunnet i brudd på taushetsplikt. – Det spiller ingen rolle om de har en hjerne eller en milliard linjer datakode. Hun har lest en forkortet versjon av Lemoines dokument. Hun påpeker at mennesker lærer sine første språk i samhandling med omsorgspersoner. Tittel: «LaMDA er bevisst». Der gjenga han flere samtaler han og en kollega hadde hatt med programmet LaMDA. Visepresident i Google, Blaise Aguera y Arcas, avviser Lemoines påstander om LaMDA. Men også han har vært på glid. Lemoine jobber i Google med etisk bruk av kunstig intelligens (AI). Derfor hadde han mange samtaler med LaMDA. De sier systemene bygger på store mengder data fra Wikipedia og ethvert lille hjørne av internett. Det betyr ikke at de forstår meningen med innholdet. Han tok opp sin uro og ble suspendert med lønn sist uke. LaMDA står for “Language Model for Dialogue Applications”, og er Googles system for å lage chatboter. Derfor gikk han offentlig ut i store aviser, blant andre The Washington Post.