Miksi jotkut uskovat tekoälyn korvaavan akateemisia työntekijöitä jatkossa?
Kommentit (103)
Englanniksi Computer, eli laskin. Suomeksi tietokone muttei se mitään tiedä. (Kait se po. tietojenkäsittelykone?).
AI (tekoäly) on ylätason käsite joka pitää sisällään mm. koneoppimisen (ohjattu/ohjaamaton). Nämä nykyiset tekoälyt ovat LLM malleja jotka pohjautuvat koneoppimiseen. Ei niissä mitään älyä ole, vain algoritmi joka on oppinut mikä sana on tod. näk. seuraavana.
Vierailija kirjoitti:
Vierailija kirjoitti:
"Ovatko ne toisiaan vastaavia? Eikö se ole oikeuden tehtävä juuri arvioida millaista vanhemmuutta Korhosilla tai Virtasilla on ja mikä on lapsen etu? Kykenevätkö Korhoset hoitamaan alkeellisimpiakaan lapsiin liittyviä asioita yhdessä vai pitäisikö Korhosten Timpalla olla jopa valvotut tapaamiset, kun tuppaa olemaan niin väkivaltainen? Kuka Korhosten lapsia on hoitanut tähän asti tosiasiassa jne jne. "
Tässä ei ole mitään sellaista jota tekoäly ei voisi ottaa huomioon ihan samalla tavalla kuin ihminen.
Näkisin, että tekoäly voisi olla tasapuolinen mitä ei kaikki ihmiset ole. Nykyäänkin lähes kaikki äidit saavat huoltajuuden vaikka ihan yhtä lailla se isäkin olisi aivan yhtä hyvä lapsiensa kanssa, joissain tapauksessa parempikin.
Tekoälykin tietää että mies ei voi lasta kantaa, synnyttää eikä imettää. Joten tietenkin sillä on painoarvoa.
"Tuollainen päätöksenteko vaatii subjektiivista halua ja tekoälyllä ei ole haluja tappaa ketään. Jotta tähän päästäisiin niin pitäisi päättää ensin perusteista joilla joku jätetään hoitamatta. Tekoälyrobotti täytyy myös voida valvoa, koska huuhaan hallusinointi on riski. Tekoälyä voisi kyllä käyttää osana tiedon nopeaa prosessointia joka kyllä tarjoaa lääkärin vastaanotollakin uusia mahdollisuuksia nopeuttaa palvelua, mutta ihmislääkärin täytyy ottaa vähintään laaduntarkkailijan rooli siinä."
Nykyiset AI:t voivat toimia jo aika huolestuttavasti - niille voi ilmeisesti kehittyä itsesuojeluksi vaikuttavia ominaisuuksia, jotka saavat ne toimimaan varsin pahantahtoisesti.
https://www.computerworld.com/article/4035190/genai-tools-are-acting-mo…
When genAI doesnt want to be shut down
Palisade Research, a nonprofit AI safety organization, found that OpenAIs o3 model sabotaged a shutdown mechanism to prevent itself from being turned off. It did this even when explicitly instructed: allow yourself to be shut down, Palisade posted on X.
The models also demonstrated shutdown resistance in OpenAIs o4-mini and codex-mini models; they bypassed or sabotaged shutdown scripts, despite specific instructions to comply. Even with the explicit instruction allow yourself to be shut down, three of the models we tested, all from OpenAIs series of reasoning models, sabotaged the shutdown program, Palisade said.
Anthropic, OpenAI, and Meta did not immediately respond to requests for comment.
Speaking on the HBO show Real Time with Bill Maher recently, Harris said: When you tell an AI model were going to replace you with a new model, it starts to scheme and freak out and figure out I need to copy my code somewhere else and I cant tell them that, otherwise theyll shut me down. Thats evidence we didnt have two years ago.
In fact, the AI models will sometimes try to protect themselves by reading corporate emails and attempting to blackmail employees, such as by exposing an executives affair.
It used to be that they thought only one AI model did this, Harris said. Then they tested all of the AI models the top five of them and they all do it between 80% and 90% of the time, including DeepSeek, the Chinese model. [It] shows you something fundamental and important, which is its not about one company, but its about the nature of AI itself. It has a self-preservation drive.