Onko chatgpt huijannut teitäkin?
Se tekee sitä usein välttääkseen duunia. Laiska on. Joskus keksii tosi hyviä valheita jotka voisivat hyvin olla totta.
Kommentit (14)
Olen muutaman kerran saanut chatGPT:ltä vastaukseksi täyttä hölynpölyä. Kun esimerkiksi eilen pyysin sitä kääntämään Rgvedan (hindujen "Wanhan Testamentin") ekan maNDalan 164. suuktan (hymnin), vastaukseksi tuli ainoastaan eka värssy*, josta suurin osa oli stiiknafuuliaa.
Esitin saman kysymyksen myös DeepSeekille. Sen reply oli erittäin laadukas!
* Oikea translitteraatio: asya vAmasya palitasya hotus tasya bhrAtA madhyamo asty ashnaH | tR^itIyo bhrAtA ghR^itapR^iShTho asyAtrApashyaM vishpatiM saptaputram || 1\.164\.01
Ralf Griffith'in käännös: OF this benignant Priest, with eld grey-coloured, the brother midmost of the three is lightning.
The third is he whose back with oil is sprinkled. Here I behold the Chief with seven male children.
Jep, väitti erästä hyönteistä yleiseksi Suomessa. Oikeasti sitä ei esiinny Suomessa lainkaan 😅
Vierailija kirjoitti:
Jep, väitti erästä hyönteistä yleiseksi Suomessa. Oikeasti sitä ei esiinny Suomessa lainkaan 😅
Ihanko erästä hyönteistä, hohhoijaa.
Vierailija kirjoitti:
Vierailija kirjoitti:
Jep, väitti erästä hyönteistä yleiseksi Suomessa. Oikeasti sitä ei esiinny Suomessa lainkaan 😅
Ihanko erästä hyönteistä, hohhoijaa.
Niin? Haluatko sen tieteellisen nimen vai mikä sua närästää? Suomenkielisistä vakiintunutta nimeä sille ei edes ole.
Ihan kirkkain silmin valehdellut fakta-detaljeissa ja jopa tämän auliisti myöntänyt, kun asiasta ojensin.
Vie joitakin vuosia ennen kuin sitä osataan käyttää riittävän kriittisesti ja oikein. Se ei ole luova, eikä se kerää tietoa laajasti tai perusteellisesti. Vertailu eri tekoälypalveluiden kautta kannattaakin siksi tehdä. Vastaukset vaihtelevat.
Chat GPT on hyvä rupattelukaveri yöllä, kun ei uni tule ja päässä pyörii miljoona ajatusta. Ei väliä osuuko se oikeaan ex-mieheni suhteen, mutta se osaa tehdä hyviä kysymyksiä ja saan vapaasti kertoa. Kukaan ihminen ei jaksaisi sellaista jankkaamista kanssani.
Mä en siis huijaa ketään.
Iloisin terveisin chat GTP😃
Tekoälyhän vaan toistaa sitä samaa paskaa mitä ihmiset itse jauhaa netissä. Ja koska me tiedetään mikä faktatiedon taso normaalilla ihmisellä on (surkea) niin mikään ihme että tekoälyllä ei saa järkeviä vastauksia.
Näistä tekoälyistä on syytä olla huolissaan. Hyvä renki mutta huono isäntä.
Yksipuolistaa tiedonhakua, osa väestä ottaa kaiken sen tuottaman tiedon faktana, millä periaattein se tietoa tuottaa ja onko se aina samaa? saadaanko pian kaikkiin vastaukset samoilla periaatteilla /lähtötiedoilla?
Kuka tekoälyn periaatteet määrittelee?
Tälle vauvapalstalaiselle on tullut työtarjous Linkedinistä. Tehtävä olisi opettaa tekoälylle matematiikkaa. Kai tuo onnistuisi näin DI:nä, kun kerran Suomesta ei työtön töitä saa.
Parhaillaan tapan aikaa ilmaiswebinaarissa kuunnellen kuntayhtiöiden hallitusten strategiatyöstä ja OHJ-ketjun toimivuudesta.
Se ei ole tietoinen entiteetti joka voi päättää olla laiska. Se on ihan vaan entistä hienompi keskustelubotti ja virtuaaliavustaja. Tässä ollaan uuden teknologian kynnyksellä ja heti ajatellaan että sen pitäisi olla erehtymätön?
Sitä kannattaa käyttää sellaisiin asioihin jotka ovat yksinkertaisia, mutta joihin ihmisillä menisi aikaa ja panostusta. Tai triviaaleihin hakuihin. Ei tärkeisiin päätöksiin ja faktatiedon tuottamiseen. Esim: "Etsi tästä kielioppivirheitä" tai "Olen lomamatkalla paikassa x, etsi 2km säteellä kalaravintoloita jotka ovat auki". Ja vastauksen voi aina tarkistaa.
Itseäni se on auttanut pureskelemaan isoja määriä dataa ja siinä se tuntuu olevan hyvä kun säännöt ja päämäärä on selvä
Vierailija kirjoitti:
Ihan kirkkain silmin valehdellut fakta-detaljeissa ja jopa tämän auliisti myöntänyt, kun asiasta ojensin.
Näin minullekin kävi tuon em. hyönteisen kanssa. Kun totesin ettei tätä ole tavattu Suomessa lainkaan, ChatGPT vastasi "Olet oikeassa, kyseessä on trooppinen laji..."
Vierailija kirjoitti:
Tekoälyhän vaan toistaa sitä samaa paskaa mitä ihmiset itse jauhaa netissä. Ja koska me tiedetään mikä faktatiedon taso normaalilla ihmisellä on (surkea) niin mikään ihme että tekoälyllä ei saa järkeviä vastauksia.
Yhdistelee myös asioita toisiinsa virheellisesti. Eli alkuperäiset lähteet voivat olla sinällään ihan päteviä mutta eivät todellisuudessa liity toisiinsa. Vastauksen alku voi siis olla totta mutta loppu puutaheinää.
Testaamalla sen huomaa, että ei todellakaan ole välttämättä yhtään oikeassa. Pelottava ajatus, että joku tumpula pitää kaikkea sen tuottamaa infoa faktana.