Milloin tulee 128-bittiset prossut ja 128-bittinen Windows?
Kommentit (43)
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Joku palstanörtti voisi laskea, mikä on maksimimäärä muistia, jota 128-bittinen järjestelmä voi osoittaa...?
128 viittaa vaan prossun rekistereiden suuruuteen. Ei ne niitä rekistereitä laajenna sen takia jotta voisi laittaa koneeseen lisää muistia.
Juuri näin. Perusasiat ensin opetteluun ja sitten vasta tänne trollailemaan.
Sinä voisit opetella ohjelmointia :) Kyllä se 64 bit lähti lentoon vasta kun muistia saatin yli 4 gigaa koneisiin ja ihan syystä.
Hyvä trolli.
64 bittisiä käskysarjoja oli paljon ennen kun 4gb muisti liimitti tuli ongelmaksi.
Tieteellinen laskenta, tietokantapalvelimet ja supertietokoneet tarvitsivat usein kykyä käsitellä erittäin suuria kokonaislukuja, liukulukuja tai työskennellä suurten tietomassojen kanssa.
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Jaa, et sitten ole kuullut avx 512 käskysarjasta? Jossa tuo 512 tarkoittaa 512 bittiä.
Tosin muistiväylä on "vaan" 128 bittiä uusimmissa kuluttaja prossuissa.
Nämä nyt on vektorioperaatioita varten eli eivät operoi 512 bitin luvuilla. Eri asia kuin mitä olisi x128.
Ne rekisterit nyt kuitenkin ovat juuri 512bittiä. Ne sisältävät monta lukua.
Se että prossu on 512bittinen ei tarkoita sitä että se operoisi 512bitin luvuilla.
Kyllä se sanan koko on mikä määrittää 'bittisyyden' eli voit lopettaa höpinät näistä vektoriarkkitehtuureista.
Jos prossu operoi 512 bitillä kerralla niin se on 512 bittinen. Ihan sama vaikka ne sanat sisältävät monia sanoja.
Vierailija kirjoitti:
Vierailija kirjoitti:
Commorode 128 oli 128bit.
Mun Amiga 500 oli 500bit.
Minä ostin atari st:n amigan sijaan koska 512 > 500.
Kuka nyt haluu mitään konetta jossa valmistaja on pihistellyt 12 bitin verran.
V.2046.
windows server 2049 pystyy jo käyttämään .
Vierailija kirjoitti:
Vierailija kirjoitti:
Sitten kun koneessasi on 64bitin edestä muistia kiinni ja lisää pitäisi saada.
- 16 bittiä = 65,536 tavua (64 kilotavua)
- 32 bittiä = 4,294,967,296 tavua (4 gigatavua)
- 64 bittiä = 18,446,744,073,709,551,616 tavua (16 exatavua tai mitä lie)
Että hetkisen joudut vielä odottelemaan.Siis eihän tuo voi pitää paikkaansa, koska 8086 oli 16-bittinen ja siinä perusmuistin raja oli 640 kB.
Terve tuloa segmentti rekistereiden ihmeelliseen maailmaan.
Trolli voit olla itse. Vaikkapa 1990 Cray 90:seen sai jo 8Gt muistia eli oli syytäkin miksi oli 64 bittinen. Sama pätee DEC:in Alphaan eli tarjottiin kokoonpanoissa joissa oli yli 4Gt muistia. Käsi kädessä kulkee nämä ja 64 bittinen sanan koko ei itsessään välttämättä tarjoa mitään etuja jos sitä ei voi hyödyntää esim. suuren muistin osoittamiseen.
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Jaa, et sitten ole kuullut avx 512 käskysarjasta? Jossa tuo 512 tarkoittaa 512 bittiä.
Tosin muistiväylä on "vaan" 128 bittiä uusimmissa kuluttaja prossuissa.
Nämä nyt on vektorioperaatioita varten eli eivät operoi 512 bitin luvuilla. Eri asia kuin mitä olisi x128.
Ne rekisterit nyt kuitenkin ovat juuri 512bittiä. Ne sisältävät monta lukua.
Se että prossu on 512bittinen ei tarkoita sitä että se operoisi 512bitin luvuilla.
Kyllä se sanan koko on mikä määrittää 'bittisyyden' eli voit lopettaa höpinät näistä vektoriarkkitehtuureista.
Jos prossu operoi 512 bitillä kerralla niin se on 512 bittinen. Ihan sama vaikka ne sana
Jos sanan koko on 512 bittiä niin sitten. Muuten kyseessä on vain rinnakkaiset operaatiot.
Vierailija kirjoitti:
Joku palstanörtti voisi laskea, mikä on maksimimäärä muistia, jota 128-bittinen järjestelmä voi osoittaa...?
2 potenssiin 128. 128bit prosessorin pointterikoko on tuo 128bittiä eli se voi osoittaa muistiavaruuteen jonka koko on 0..2 ^ 128
Vierailija kirjoitti:
Trolli voit olla itse. Vaikkapa 1990 Cray 90:seen sai jo 8Gt muistia eli oli syytäkin miksi oli 64 bittinen. Sama pätee DEC:in Alphaan eli tarjottiin kokoonpanoissa joissa oli yli 4Gt muistia. Käsi kädessä kulkee nämä ja 64 bittinen sanan koko ei itsessään välttämättä tarjoa mitään etuja jos sitä ei voi hyödyntää esim. suuren muistin osoittamiseen.
AS/400 koneet julkistettiin vuonna 1988 ja tukivat enintään 512 mt muistia vaikka olivat 64 bittisiä.
Vierailija kirjoitti:
Vierailija kirjoitti:
Trolli voit olla itse. Vaikkapa 1990 Cray 90:seen sai jo 8Gt muistia eli oli syytäkin miksi oli 64 bittinen. Sama pätee DEC:in Alphaan eli tarjottiin kokoonpanoissa joissa oli yli 4Gt muistia. Käsi kädessä kulkee nämä ja 64 bittinen sanan koko ei itsessään välttämättä tarjoa mitään etuja jos sitä ei voi hyödyntää esim. suuren muistin osoittamiseen.
AS/400 koneet julkistettiin vuonna 1988 ja tukivat enintään 512 mt muistia vaikka olivat 64 bittisiä.
Eivät olleet alussa 64 bittisiä.
Vierailija kirjoitti:
Joku palstanörtti voisi laskea, mikä on maksimimäärä muistia, jota 128-bittinen järjestelmä voi osoittaa...?
Maksimimäärä on 2, eikä sille ole mitään nimeä. Luulisi niiden 16 eksatavun riittävän lähivuosiksi. Olisi aivan järjetöntä olla noin suuri muistiavaruus osoitettavana, joka 128 bitillä saavutettaisiin. Käyttöjärjestelmän ja sovellukset joutuisi tekemään uusiksi tai sitten niitä vanhoja sovelluksia pitäisi ajaa jonkinlaisen virtualisoinnin kautta eikä siinä ole tässä vaiheessa mitään järkeä.
Niitä 128-bittisiä rekistereitä (XMM0 - XMM7) on ollut Intelin käskykannassa Pentium III prosessoreista lähtien ja AMD:lla vähän myöhemmin
8-bittisillä ja 16-bittisillä prosessoreilla oli vielä järkeä ohjelmoida Assemblerilla kun muistia oli todella vähän ja jokainen tiksu piti osata käyttää hyödyksi. Ylemmän tason kieliä on ollut aikalailla alusta saakka. Siinä on vaan kyse vähän samasta asiasta kuin käyttääkö lapiota (Assembler) vai kaivinkonetta (C, C++, Java, C€ jne. jne. jne.) Meitä vielä joitain on, jotka vanhaa Assembleria naputtelevat omaksi huviksi. 32-bittisestä eteenpäin konekielistä koodia on kannattanut tehdä lähinnä kääntäjiin ylemmän tason ohjelmointikieliä varten, ihminen ei yksinkertaisesti pysty ilman valtavaa työtä optimoimaan tavallaan useita käskylinjoja samanaikaisesti. Kääntäjät tekevät sen vain niin paljon paremmin. Toki koodin reversoinnissa on edelleen konekielen ymmärtämisestä etua, mutta se on sellaista labrarottien hommaa.
Vierailija kirjoitti:
Vierailija kirjoitti:
Trolli voit olla itse. Vaikkapa 1990 Cray 90:seen sai jo 8Gt muistia eli oli syytäkin miksi oli 64 bittinen. Sama pätee DEC:in Alphaan eli tarjottiin kokoonpanoissa joissa oli yli 4Gt muistia. Käsi kädessä kulkee nämä ja 64 bittinen sanan koko ei itsessään välttämättä tarjoa mitään etuja jos sitä ei voi hyödyntää esim. suuren muistin osoittamiseen.
AS/400 koneet julkistettiin vuonna 1988 ja tukivat enintään 512 mt muistia vaikka olivat 64 bittisiä.
Trollit ulos keskustelusta!
Vierailija kirjoitti:
Vierailija kirjoitti:
Joku palstanörtti voisi laskea, mikä on maksimimäärä muistia, jota 128-bittinen järjestelmä voi osoittaa...?
Maksimimäärä on 2, eikä sille ole mitään nimeä. Luulisi niiden 16 eksatavun riittävän lähivuosiksi. Olisi aivan järjetöntä olla noin suuri muistiavaruus osoitettavana, joka 128 bitillä saavutettaisiin. Käyttöjärjestelmän ja sovellukset joutuisi tekemään uusiksi tai sitten niitä vanhoja sovelluksia pitäisi ajaa jonkinlaisen virtualisoinnin kautta eikä siinä ole tässä vaiheessa mitään järkeä.
Niitä 128-bittisiä rekistereitä (XMM0 - XMM7) on ollut Intelin käskykannassa Pentium III prosessoreista lähtien ja AMD:lla vähän myöhemmin
8-bittisillä ja 16-bittisillä prosessoreilla oli vielä järkeä ohjelmoida Assemblerilla kun muistia oli todella vähän ja jokainen tiksu piti osata käyttää hyödyksi. Ylemmän tason kieliä
Näköjään hukkasi sitten formatoinnissa tuon 2^128
Vierailija kirjoitti:
Vierailija kirjoitti:
Trolli voit olla itse. Vaikkapa 1990 Cray 90:seen sai jo 8Gt muistia eli oli syytäkin miksi oli 64 bittinen. Sama pätee DEC:in Alphaan eli tarjottiin kokoonpanoissa joissa oli yli 4Gt muistia. Käsi kädessä kulkee nämä ja 64 bittinen sanan koko ei itsessään välttämättä tarjoa mitään etuja jos sitä ei voi hyödyntää esim. suuren muistin osoittamiseen.
AS/400 koneet julkistettiin vuonna 1988 ja tukivat enintään 512 mt muistia vaikka olivat 64 bittisiä.
Näissäkin bittisyys oli suunniteltu huippumallien ehdoilla joissa saattoi olla 40Gt keskusmuistia.
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vaikea kuvitella että olis tarvetta. Ehkäpä reaaliaikaisessa fuusioreaktorin magneettikentän hallinnassa, missä onkin varmaan jo 512-bittiset väylät käytössä (en googlettanut, vedin hatusta), tai jossain monianturisysteemissä mut niitä antureita pitäis olla tuhansia tai miljoonia ja kysytyn numeerisen tarkkuuden pitäis olla kovin suuri. Ehkä nanorobotiikassa vois olla hyötyä?
Mut last seasonhan toi on, siitä samaa mieltä.
Leveitä muistiväyliä löytyy vaikka näyttiksistä kun muisti on nykyään se pullonkaula.
Juu. Pointsi oli kelailla sitä, mikä olisi sellainen prosessi joka motivoisi 512-bittistä järjestelmää.
Laskentakapasiteettia on liian vähän.
Aivan liian vähän.
Joku rupinen 56 ytiminen prosessori kahdella 8192 ytimen näytönohjaimella ei oikein tahdo ehtiä ja jaksaa.
Muistia on ihan tarpeeksi, 256 GB riittää ihan hyvin.
Mikä on sitten tarpeeksi tehoa, ehkäpä noin 1000- tai 10000-kertaa tuo edellinen nuhapumppu.
Osoitetaanko muistia aina yhden tavun tarkkuudella vai miten? Eikö sillä voi säästä bittisyyttä, että osoittaa vähän pienemmällä tarkkuudella esim. kahden tavun pätkää kerrallaan?
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vierailija kirjoitti:
Vaikea kuvitella että olis tarvetta. Ehkäpä reaaliaikaisessa fuusioreaktorin magneettikentän hallinnassa, missä onkin varmaan jo 512-bittiset väylät käytössä (en googlettanut, vedin hatusta), tai jossain monianturisysteemissä mut niitä antureita pitäis olla tuhansia tai miljoonia ja kysytyn numeerisen tarkkuuden pitäis olla kovin suuri. Ehkä nanorobotiikassa vois olla hyötyä?
Mut last seasonhan toi on, siitä samaa mieltä.
Leveitä muistiväyliä löytyy vaikka näyttiksistä kun muisti on nykyään se pullonkaula.
Juu. Pointsi oli kelailla sitä, mikä olisi sellainen prosessi joka motivoisi 512-bittistä järjestelmää.
Laskentakapasiteettia on liian vähän.
Aivan liian vähän.
Joku rupinen 56 ytim
Niin, siksi annoin esimerkiksi fuusioreaktorin magneettikentän reaaliaikaisen hallinnan. Sen kuvittelevan olevan suurin piirtein vaativin laskennallinen prosessi, joka täyttää liudan asianmukaisia vaatimuksia, ts. reaaliaikaisen data(lähteide)n määrä sekä kohinaisuus (kts. bittimäärä).
Mun Lada 2105 oli 2105-bittinen ja kasarilla.
Kyllä se sanan koko on mikä määrittää 'bittisyyden' eli voit lopettaa höpinät näistä vektoriarkkitehtuureista.