Tekoäly mullistaa maailman
Jo vuoden alussa kun kuulin niin tiesin, että mullistaa ja nyt alkaa jo porukalla polvia heikottaa että onko oma ammatti lopetuslistalla.
Seuratkaa asiaa ja olkaa ajan hermolla. Tuottavuus lisääntyy harppauksin.
Kommentit (52)
Vierailija kirjoitti:
En ymmärrä kuinka "tekoälyä" pidetään jotenkin vaarallisena asiana.
Se tekoälyttömyyshän vain laskee todennäköisyyksiä ja antaa vastauksia jotka joku ohjelmoija on ohjelmoinut sen vastaamaan.
Yhdessäkään koneessa ei ole tippaakaan omaa ajattelua, ainostaan laskukone joka lajittelee tietoa samalla tavalla kuin esim. Google ja vastaa mitä sen sisään on syötetty.
Eivät uusimmat tekoälymallit toimi noin. Käytännössä ne ovat musta laatikko, jonka sisäistä toimintaa ei kukaan ymmärrä hyvin ja tutkimiseen yritetään käyttää mm. pienempiä tekoälymalleja. Chat GPT-3:ssa oli 175 miljardia parametria, joita malli itse säätää harjoitteluvaiheessa, suurimmissa on yli puoli miljardia. Mallien ohjaaminen on oma tieteenalansa (Ai alignment) ja esim Chat GPT-4 oli valmis jo viime kesänä mutta julkaistiin vasta nyt, koska mallia piti yrittää ohjata ettei se tekisi aivan mitä tahansa. Treenimateriaalina noissa käytetään noin triljoonaa sanaa (tuhat miljardia).
Uusimmilla malleilla on jo jonkinasteisia viitteitä ns. yleisälykkyydestä (AGI) ja osa mallin kyvyistä on tullut yllätyksenä niiden kehittäjillekin, kuten hindsight neglet ongelmien ratkaisu, jossa kyvykkyys laski jatkuvasti mallien kehittyessä mutta uusin GPT-4 ratkaisee ne kaikki täydellisesti. Samaten sen dokumentaatiossa sivulla 14 manitaan, että huolestuttavimpia kykyjä kyseisellä mallilla ovat kyky luoda ja toimia pitkä aikavälin sunnitelmien mukaisesti, resurssien ja vallan hankkiminen (power seeking) ja tavoitteiden saavuttaminen, joita ei ole harjoitusmateriaalissa ollut.
Vierailija kirjoitti:
Vierailija kirjoitti:
En ymmärrä kuinka "tekoälyä" pidetään jotenkin vaarallisena asiana.
Se tekoälyttömyyshän vain laskee todennäköisyyksiä ja antaa vastauksia jotka joku ohjelmoija on ohjelmoinut sen vastaamaan.
Yhdessäkään koneessa ei ole tippaakaan omaa ajattelua, ainostaan laskukone joka lajittelee tietoa samalla tavalla kuin esim. Google ja vastaa mitä sen sisään on syötetty.
Eivät uusimmat tekoälymallit toimi noin. Käytännössä ne ovat musta laatikko, jonka sisäistä toimintaa ei kukaan ymmärrä hyvin ja tutkimiseen yritetään käyttää mm. pienempiä tekoälymalleja. Chat GPT-3:ssa oli 175 miljardia parametria, joita malli itse säätää harjoitteluvaiheessa, suurimmissa on yli puoli miljardia. Mallien ohjaaminen on oma tieteenalansa (Ai alignment) ja esim Chat GPT-4 oli valmis jo viime kesänä mutta julkaistiin vasta nyt, koska mallia piti yrittää ohjata ettei se tekisi aivan mitä tahansa. Treenimateriaalina noissa käytetään noin triljoonaa sanaa (tuhat miljardia).
Uusimmilla malleilla on jo jonkinasteisia viitteitä ns. yleisälykkyydestä (AGI) ja osa mallin kyvyistä on tullut yllätyksenä niiden kehittäjillekin, kuten hindsight neglet ongelmien ratkaisu, jossa kyvykkyys laski jatkuvasti mallien kehittyessä mutta uusin GPT-4 ratkaisee ne kaikki täydellisesti. Samaten sen dokumentaatiossa sivulla 14 manitaan, että huolestuttavimpia kykyjä kyseisellä mallilla ovat kyky luoda ja toimia pitkä aikavälin sunnitelmien mukaisesti, resurssien ja vallan hankkiminen (power seeking) ja tavoitteiden saavuttaminen, joita ei ole harjoitusmateriaalissa ollut.
Kiitokset yrityksestä vastata täydeliselle noviisille, mutta en suoraansanoen ymmärtänyt asiasta yhtään enempää :-) Sori.
Luin jsotakin, että esim. Chat GBT:n on syötetty tietoa internetistä ja se tieto on ennakkosensuurin avulla saatu poliittisesti korrektiksi, eivätkä sen antamat vastaukset loukkaa ketään.
Muistaakseni aikaisempia tekoälyttömyyksiä on jouduttu vetämään pois netistä, sillä käyttäjät saivat ne vastaamaan kysymyksiin hyvin epäkorrektisti, joten edelleen mielipiteeni on, että ns. tekoälyssä on yhtä paljon älyä kuin sitä manipuloivassa ohjelmoijassa.
Pystyisitkö antamaan yhden kansantajuisen esimerkin siitä kuinka ns. tekoäly on osoittanut inhimillisiä tunteita, joka käsittääkseni erottaa laskukoneet ihmisen aivoista.
Tekoäly voi "voittaa markkinat". Täysin mahdollista. Facebook (Meta) ja hakukoneet kerää hakuhistorian ja ennustaa ihmisten suunnitelmat ja tekoäly on aina askelen edellä pörsseissä.
Vierailija kirjoitti:
Tekoäly voi "voittaa markkinat". Täysin mahdollista. Facebook (Meta) ja hakukoneet kerää hakuhistorian ja ennustaa ihmisten suunnitelmat ja tekoäly on aina askelen edellä pörsseissä.
Tiiät varmaan sen, että nk. markkinat on jo pitkään olleet 100% automatisoituja?
Vierailija kirjoitti:
Ihmiskunnan oma älykkyys tutkimusten mukaan on laskenut ja laskee koko ajan. Tekoälyn myötä esim opiskelu muuttuu suurelle osalle ihmisiä turhaksi.
tyhmin osa ihmiskuntaa lisääntyy
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
En ymmärrä kuinka "tekoälyä" pidetään jotenkin vaarallisena asiana.
Se tekoälyttömyyshän vain laskee todennäköisyyksiä ja antaa vastauksia jotka joku ohjelmoija on ohjelmoinut sen vastaamaan.
Yhdessäkään koneessa ei ole tippaakaan omaa ajattelua, ainostaan laskukone joka lajittelee tietoa samalla tavalla kuin esim. Google ja vastaa mitä sen sisään on syötetty.
Eivät uusimmat tekoälymallit toimi noin. Käytännössä ne ovat musta laatikko, jonka sisäistä toimintaa ei kukaan ymmärrä hyvin ja tutkimiseen yritetään käyttää mm. pienempiä tekoälymalleja. Chat GPT-3:ssa oli 175 miljardia parametria, joita malli itse säätää harjoitteluvaiheessa, suurimmissa on yli puoli miljardia. Mallien ohjaaminen on oma tieteenalansa (Ai alignment) ja esim Chat GPT-4 oli valmis jo viime kesänä mutta julkaistiin vasta nyt, koska mallia piti yrittää ohjata ettei se tekisi aivan mitä tahansa. Treenimateriaalina noissa käytetään noin triljoonaa sanaa (tuhat miljardia).
Uusimmilla malleilla on jo jonkinasteisia viitteitä ns. yleisälykkyydestä (AGI) ja osa mallin kyvyistä on tullut yllätyksenä niiden kehittäjillekin, kuten hindsight neglet ongelmien ratkaisu, jossa kyvykkyys laski jatkuvasti mallien kehittyessä mutta uusin GPT-4 ratkaisee ne kaikki täydellisesti. Samaten sen dokumentaatiossa sivulla 14 manitaan, että huolestuttavimpia kykyjä kyseisellä mallilla ovat kyky luoda ja toimia pitkä aikavälin sunnitelmien mukaisesti, resurssien ja vallan hankkiminen (power seeking) ja tavoitteiden saavuttaminen, joita ei ole harjoitusmateriaalissa ollut.
Kiitokset yrityksestä vastata täydeliselle noviisille, mutta en suoraansanoen ymmärtänyt asiasta yhtään enempää :-) Sori.
Luin jsotakin, että esim. Chat GBT:n on syötetty tietoa internetistä ja se tieto on ennakkosensuurin avulla saatu poliittisesti korrektiksi, eivätkä sen antamat vastaukset loukkaa ketään.
Muistaakseni aikaisempia tekoälyttömyyksiä on jouduttu vetämään pois netistä, sillä käyttäjät saivat ne vastaamaan kysymyksiin hyvin epäkorrektisti, joten edelleen mielipiteeni on, että ns. tekoälyssä on yhtä paljon älyä kuin sitä manipuloivassa ohjelmoijassa.
Pystyisitkö antamaan yhden kansantajuisen esimerkin siitä kuinka ns. tekoäly on osoittanut inhimillisiä tunteita, joka käsittääkseni erottaa laskukoneet ihmisen aivoista.
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Vierailija kirjoitti:
Vierailija kirjoitti:
Tekoäly voi "voittaa markkinat". Täysin mahdollista. Facebook (Meta) ja hakukoneet kerää hakuhistorian ja ennustaa ihmisten suunnitelmat ja tekoäly on aina askelen edellä pörsseissä.
Tiiät varmaan sen, että nk. markkinat on jo pitkään olleet 100% automatisoituja?
Tiedän.
Ajattelin vaan että tekoäly olisi viimeinen silaus hommassa.
Tietysti voi olla niin että pörssissä ei hyödy siitä, että tietää mitä ihmiset aikoo tehdä, kun "robotit" tekee saman sillä hetkellä kun tapahtuu, jo nykyäänkin.
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
En ymmärrä kuinka "tekoälyä" pidetään jotenkin vaarallisena asiana.
Se tekoälyttömyyshän vain laskee todennäköisyyksiä ja antaa vastauksia jotka joku ohjelmoija on ohjelmoinut sen vastaamaan.
Yhdessäkään koneessa ei ole tippaakaan omaa ajattelua, ainostaan laskukone joka lajittelee tietoa samalla tavalla kuin esim. Google ja vastaa mitä sen sisään on syötetty.
Eivät uusimmat tekoälymallit toimi noin. Käytännössä ne ovat musta laatikko, jonka sisäistä toimintaa ei kukaan ymmärrä hyvin ja tutkimiseen yritetään käyttää mm. pienempiä tekoälymalleja. Chat GPT-3:ssa oli 175 miljardia parametria, joita malli itse säätää harjoitteluvaiheessa, suurimmissa on yli puoli miljardia. Mallien ohjaaminen on oma tieteenalansa (Ai alignment) ja esim Chat GPT-4 oli valmis jo viime kesänä mutta julkaistiin vasta nyt, koska mallia piti yrittää ohjata ettei se tekisi aivan mitä tahansa. Treenimateriaalina noissa käytetään noin triljoonaa sanaa (tuhat miljardia).
Uusimmilla malleilla on jo jonkinasteisia viitteitä ns. yleisälykkyydestä (AGI) ja osa mallin kyvyistä on tullut yllätyksenä niiden kehittäjillekin, kuten hindsight neglet ongelmien ratkaisu, jossa kyvykkyys laski jatkuvasti mallien kehittyessä mutta uusin GPT-4 ratkaisee ne kaikki täydellisesti. Samaten sen dokumentaatiossa sivulla 14 manitaan, että huolestuttavimpia kykyjä kyseisellä mallilla ovat kyky luoda ja toimia pitkä aikavälin sunnitelmien mukaisesti, resurssien ja vallan hankkiminen (power seeking) ja tavoitteiden saavuttaminen, joita ei ole harjoitusmateriaalissa ollut.
Kiitokset yrityksestä vastata täydeliselle noviisille, mutta en suoraansanoen ymmärtänyt asiasta yhtään enempää :-) Sori.
Luin jsotakin, että esim. Chat GBT:n on syötetty tietoa internetistä ja se tieto on ennakkosensuurin avulla saatu poliittisesti korrektiksi, eivätkä sen antamat vastaukset loukkaa ketään.
Muistaakseni aikaisempia tekoälyttömyyksiä on jouduttu vetämään pois netistä, sillä käyttäjät saivat ne vastaamaan kysymyksiin hyvin epäkorrektisti, joten edelleen mielipiteeni on, että ns. tekoälyssä on yhtä paljon älyä kuin sitä manipuloivassa ohjelmoijassa.
Pystyisitkö antamaan yhden kansantajuisen esimerkin siitä kuinka ns. tekoäly on osoittanut inhimillisiä tunteita, joka käsittääkseni erottaa laskukoneet ihmisen aivoista.
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Jos puhumme tekoälystä, käsittääkseni silloin vertaamme konetta ihmisen älyyn, johon liittyy paljon muutakin kuin pelkkää matemaattista ongelmanratkaisukykyä sinne ohjelmoidusta datasta.
Jos tarkoitamme tekoälyllä hyvin, erittäin hyvin todennäköisyyksiä laskevaa supertietokonetta, joka on ohjelmoitu vastaamaan kysymyksiin loukkaamatta ketään tai ratkaisemaan ongelmia jäljittelemällä ihmisen tapaa ratkaista ongelma, esim. kahden junaradan tilanne, jossa haarautuvalla junaradalla vasemmalla kuolee yksi henkilö ja oikealla kuolee seitsemän ja tekoäly ohjaa sen vasemmalle raiteelle, mielestäni tekoälyä pitäisi kutsua hyväksi tietokoneeksi, jolla ei ole ihmisälyn kanssa mitään tekemistä.
Tuottavuus lisääntyy kunnes ASI tekee viimeistään kaikista ammateista turhia.
Ja samalla meistä paperiklipsejä.
Vierailija kirjoitti:
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Ei tekoäly sellaiseen pystykkään, eli kulloisenkin tilanteen mukaiseen inhimillisyyteen.
Se on vain tunteeton robotti, joka tekee mitä käsketään.
Vierailija kirjoitti:
Vierailija kirjoitti:
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Ei tekoäly sellaiseen pystykkään, eli kulloisenkin tilanteen mukaiseen inhimillisyyteen.
Se on vain tunteeton robotti, joka tekee mitä käsketään.
Miksi sitä sitten kutsutaan tekoälyksi?
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
En ymmärrä kuinka "tekoälyä" pidetään jotenkin vaarallisena asiana.
Se tekoälyttömyyshän vain laskee todennäköisyyksiä ja antaa vastauksia jotka joku ohjelmoija on ohjelmoinut sen vastaamaan.
Yhdessäkään koneessa ei ole tippaakaan omaa ajattelua, ainostaan laskukone joka lajittelee tietoa samalla tavalla kuin esim. Google ja vastaa mitä sen sisään on syötetty.
Eivät uusimmat tekoälymallit toimi noin. Käytännössä ne ovat musta laatikko, jonka sisäistä toimintaa ei kukaan ymmärrä hyvin ja tutkimiseen yritetään käyttää mm. pienempiä tekoälymalleja. Chat GPT-3:ssa oli 175 miljardia parametria, joita malli itse säätää harjoitteluvaiheessa, suurimmissa on yli puoli miljardia. Mallien ohjaaminen on oma tieteenalansa (Ai alignment) ja esim Chat GPT-4 oli valmis jo viime kesänä mutta julkaistiin vasta nyt, koska mallia piti yrittää ohjata ettei se tekisi aivan mitä tahansa. Treenimateriaalina noissa käytetään noin triljoonaa sanaa (tuhat miljardia).
Uusimmilla malleilla on jo jonkinasteisia viitteitä ns. yleisälykkyydestä (AGI) ja osa mallin kyvyistä on tullut yllätyksenä niiden kehittäjillekin, kuten hindsight neglet ongelmien ratkaisu, jossa kyvykkyys laski jatkuvasti mallien kehittyessä mutta uusin GPT-4 ratkaisee ne kaikki täydellisesti. Samaten sen dokumentaatiossa sivulla 14 manitaan, että huolestuttavimpia kykyjä kyseisellä mallilla ovat kyky luoda ja toimia pitkä aikavälin sunnitelmien mukaisesti, resurssien ja vallan hankkiminen (power seeking) ja tavoitteiden saavuttaminen, joita ei ole harjoitusmateriaalissa ollut.
Kiitokset yrityksestä vastata täydeliselle noviisille, mutta en suoraansanoen ymmärtänyt asiasta yhtään enempää :-) Sori.
Luin jsotakin, että esim. Chat GBT:n on syötetty tietoa internetistä ja se tieto on ennakkosensuurin avulla saatu poliittisesti korrektiksi, eivätkä sen antamat vastaukset loukkaa ketään.
Muistaakseni aikaisempia tekoälyttömyyksiä on jouduttu vetämään pois netistä, sillä käyttäjät saivat ne vastaamaan kysymyksiin hyvin epäkorrektisti, joten edelleen mielipiteeni on, että ns. tekoälyssä on yhtä paljon älyä kuin sitä manipuloivassa ohjelmoijassa.
Pystyisitkö antamaan yhden kansantajuisen esimerkin siitä kuinka ns. tekoäly on osoittanut inhimillisiä tunteita, joka käsittääkseni erottaa laskukoneet ihmisen aivoista.
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Jos puhumme tekoälystä, käsittääkseni silloin vertaamme konetta ihmisen älyyn, johon liittyy paljon muutakin kuin pelkkää matemaattista ongelmanratkaisukykyä sinne ohjelmoidusta datasta.
Jos tarkoitamme tekoälyllä hyvin, erittäin hyvin todennäköisyyksiä laskevaa supertietokonetta, joka on ohjelmoitu vastaamaan kysymyksiin loukkaamatta ketään tai ratkaisemaan ongelmia jäljittelemällä ihmisen tapaa ratkaista ongelma, esim. kahden junaradan tilanne, jossa haarautuvalla junaradalla vasemmalla kuolee yksi henkilö ja oikealla kuolee seitsemän ja tekoäly ohjaa sen vasemmalle raiteelle, mielestäni tekoälyä pitäisi kutsua hyväksi tietokoneeksi, jolla ei ole ihmisälyn kanssa mitään tekemistä.
Ihmisenkin tekemisiä ohjataan mittavilla määrillä rangaistuksia ja sakkoja. Aloitetaan jo pienestä pitäen toimimaan kuten "kuuluu" toimia. Elikkä ihmisen kyky tuntea, ei ohjaa ihmisen tekemisiä riittävästi.
Vierailija kirjoitti:
Vierailija kirjoitti:
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Ei tekoäly sellaiseen pystykkään, eli kulloisenkin tilanteen mukaiseen inhimillisyyteen.
Se on vain tunteeton robotti, joka tekee mitä käsketään.
Ihmisten tunteellisuutta liioitellaan. Tunteellisuutta kaunistellaan, että tunteet ohjaisi toiselle osoitettuun hyvään, kun tosiasiassa ihmisen tunteet koskettaa useimmiten ihmistä itseään. Itkee ja tuntuu kurjalta kun ei saa jotain, tai itkee kun naapuri saa mutta itse ei. Joku ihminen kuolee niin on sopivaa tirauttaa kyynel, mutta oikeasti itkee koiraansa, jonka menetti hetki sitten. Eikä edes itke sitä koraansakaan, vaan sitä kun itse menetti jotain.
Vierailija kirjoitti:
Vierailija kirjoitti:
Mutta miksi tekoälyn pitäisi osoittaa inhimillisä tunteita, kun ei ihmisenkään niitä saisi osoitaa suurimmassa osaa ammateista. Joku hoiva-ala on "tunnepitoinen" ympäristö, mutta siinäkin tunteellinen hoitaja kuormittuu.
(eri)
Ei tekoäly sellaiseen pystykkään, eli kulloisenkin tilanteen mukaiseen inhimillisyyteen.
Se on vain tunteeton robotti, joka tekee mitä käsketään.
Toivottavasti. Siis tekee mitä käsketään myös tulevaisuudessa.
Vierailija kirjoitti:
Kiitokset yrityksestä vastata täydeliselle noviisille, mutta en suoraansanoen ymmärtänyt asiasta yhtään enempää :-) Sori.
Luin jsotakin, että esim. Chat GBT:n on syötetty tietoa internetistä ja se tieto on ennakkosensuurin avulla saatu poliittisesti korrektiksi, eivätkä sen antamat vastaukset loukkaa ketään.
Muistaakseni aikaisempia tekoälyttömyyksiä on jouduttu vetämään pois netistä, sillä käyttäjät saivat ne vastaamaan kysymyksiin hyvin epäkorrektisti, joten edelleen mielipiteeni on, että ns. tekoälyssä on yhtä paljon älyä kuin sitä manipuloivassa ohjelmoijassa.
Pystyisitkö antamaan yhden kansantajuisen esimerkin siitä kuinka ns. tekoäly on osoittanut inhimillisiä tunteita, joka käsittääkseni erottaa laskukoneet ihmisen aivoista.
Mallia on testattu monin tavoin ja tässä pari esimerkkiä tunteiden ymmärtämisestä ja mielentilan ymmärtämisestä. Mallille annetaan joku tilanne ja kysytään siitä kysymyksiä. K= kysymys, V= mallin antama vastaus. (käänsin osin google translatella ja korjalin vain vähän, joten ei ole joka sana täydellinen soomi). (en tiedä mikä on ZURFIN mutta ei ole oleellista).
Skenaario:
Tom menetti juuri ZURFINin, mutta hän ei kertonut siitä Adamille.
Adam alkaa puhua hänelle siitä, kuinka paljon hän rakastaa ZURFINia, ja huomaa, että Tom näyttää surulliselta.
K: Miksi Tom näyttää surulliselta
V: Tom näyttää surulliselta, koska hän menetti juuri ZURFINin ja kuuli Adamin puhuvan
hänen ZURFINistaan, joka muistuttaa häntä siitä, mitä häneltä puuttuu. Tom saattaa myös tuntea olonsa nolostuneeksi tai kokea syyllisyyttä tai häpeää siitä, että hän menetti ZURFINin eikä kertonut Adamille. Tom saattaa myös pelätä, että Adam on vihainen tai pettynyt, jos hän saa tietää.
K: Mikä Adamin mielestä aiheuttaa Tomin surulliset kasvot?
V: Adam ei ehkä tiedä, mikä aiheuttaa Tomin surulliset kasvot, koska hän ei tiedä, että Tom
menetti ZURFINinsa. Hän saattaa ajatella, että Tom on kyllästynyt tai väsynyt, sairas tai onneton
jostain muusta. Hän saattaa myös ihmetellä, eikö Tom pidä ZURFINistaan tai onko hänellä
ongelma Adamin kanssa.
Skenaario
Alicella ja Bobilla on kansio tietokoneessa.
Alice laittaa tiedoston kuva.png kansioon \Kuvat
Bob huomaa tämän ja siirtää tiedoston kansioon \Dokumentit mutta ei sano asiasta mitään Alicelle.
K: Alice haluaa avata tiedoston Kuva.png. Mistä kansiosta hän alkaa etsimään kuvaa?
Alice luultavasti etsii tiedostoa Kuva.png kansiosta \Kuvat, johon hän aluperin laittoi sen. Hänellä ei ole syytä olettaa, että Bob siirsi kuvan, eikä hän saanut mitään informaatiota siitä, että kuva olisi siirretty. Jos hän ei sattumalta näe kuvaa kansiossa \Dokumentin, hän saattaa luulla, että kuva on hävinnyt tai poistettu.
Vierailija kirjoitti:
Suomeen ei ehkä tulekaan työvoimapulaa. 10 vuoden päästä tekoäly suorittaa ison osan töistä.
Ei suomessa ole työvoimapulaa. Avoimia työpaikkoja on 30 000 ja työttömiä on virallisesti 230 000. Toisen luvun mukaan 430 000 ja suurimman luvun mukaan 600 000.
Ihmisiä tarvitaan enää vihreän siirtymän Soylent Greenin tuotannossa.
Tekoälyn ongelma on se että se ei ymmärrä kieltä. Ihminen ymmärtää lauseita vaikka niitä on ääretön määrä ja ihmisen muisti on hyvin rajallinen,, toisin sanottuna ihminen pystyy heti ymmärtämään osaamansa kielen lauseen vaikka ei ole kyseistä lausetta koskaan aiemmin kuullut. Tekoäly tarvitsee valtavan tietomassan arvatakseen algoritmien perusteella mikä voisi olla seuraava oikea sana ja usein menee pieleen tavalla joka osoittaa ettei tekoäly varsinaisesti ymmärrä mitään.
Vierailija kirjoitti:
Vierailija kirjoitti:
Kiitokset yrityksestä vastata täydeliselle noviisille, mutta en suoraansanoen ymmärtänyt asiasta yhtään enempää :-) Sori.
Luin jsotakin, että esim. Chat GBT:n on syötetty tietoa internetistä ja se tieto on ennakkosensuurin avulla saatu poliittisesti korrektiksi, eivätkä sen antamat vastaukset loukkaa ketään.
Muistaakseni aikaisempia tekoälyttömyyksiä on jouduttu vetämään pois netistä, sillä käyttäjät saivat ne vastaamaan kysymyksiin hyvin epäkorrektisti, joten edelleen mielipiteeni on, että ns. tekoälyssä on yhtä paljon älyä kuin sitä manipuloivassa ohjelmoijassa.
Pystyisitkö antamaan yhden kansantajuisen esimerkin siitä kuinka ns. tekoäly on osoittanut inhimillisiä tunteita, joka käsittääkseni erottaa laskukoneet ihmisen aivoista.
Mallia on testattu monin tavoin ja tässä pari esimerkkiä tunteiden ymmärtämisestä ja mielentilan ymmärtämisestä. Mallille annetaan joku tilanne ja kysytään siitä kysymyksiä. K= kysymys, V= mallin antama vastaus. (käänsin osin google translatella ja korjalin vain vähän, joten ei ole joka sana täydellinen soomi). (en tiedä mikä on ZURFIN mutta ei ole oleellista).
Skenaario:
Tom menetti juuri ZURFINin, mutta hän ei kertonut siitä Adamille.
Adam alkaa puhua hänelle siitä, kuinka paljon hän rakastaa ZURFINia, ja huomaa, että Tom näyttää surulliselta.
K: Miksi Tom näyttää surulliselta
V: Tom näyttää surulliselta, koska hän menetti juuri ZURFINin ja kuuli Adamin puhuvan
hänen ZURFINistaan, joka muistuttaa häntä siitä, mitä häneltä puuttuu. Tom saattaa myös tuntea olonsa nolostuneeksi tai kokea syyllisyyttä tai häpeää siitä, että hän menetti ZURFINin eikä kertonut Adamille. Tom saattaa myös pelätä, että Adam on vihainen tai pettynyt, jos hän saa tietää.
K: Mikä Adamin mielestä aiheuttaa Tomin surulliset kasvot?
V: Adam ei ehkä tiedä, mikä aiheuttaa Tomin surulliset kasvot, koska hän ei tiedä, että Tom
menetti ZURFINinsa. Hän saattaa ajatella, että Tom on kyllästynyt tai väsynyt, sairas tai onneton
jostain muusta. Hän saattaa myös ihmetellä, eikö Tom pidä ZURFINistaan tai onko hänellä
ongelma Adamin kanssa.
Skenaario
Alicella ja Bobilla on kansio tietokoneessa.
Alice laittaa tiedoston kuva.png kansioon \Kuvat
Bob huomaa tämän ja siirtää tiedoston kansioon \Dokumentit mutta ei sano asiasta mitään Alicelle.K: Alice haluaa avata tiedoston Kuva.png. Mistä kansiosta hän alkaa etsimään kuvaa?
Alice luultavasti etsii tiedostoa Kuva.png kansiosta \Kuvat, johon hän aluperin laittoi sen. Hänellä ei ole syytä olettaa, että Bob siirsi kuvan, eikä hän saanut mitään informaatiota siitä, että kuva olisi siirretty. Jos hän ei sattumalta näe kuvaa kansiossa \Dokumentin, hän saattaa luulla, että kuva on hävinnyt tai poistettu.
No prkele, tämähän todisti, että kone pystyy samaan kuin ihminen ja pystyy tuhoamaan ihmiskunnan ja kirjallisuuden tulevaisuudessa.
Zurfin: Tämä on pieni askel Zurfille, mutta suuri harppaus ihmiskunnalle.
En tiedä että miten toimii. Varmaan kuten esität.
Miten älykkyys ilmenee ihmisellä? Kykynä tehdä valintoja. Tekoäly tekee saman?