|
|
Jube ulme tundub see ikka veel see aju-arvuti interface. Samas eks kui läbimurre tuleb, siis enam nii ulme ei ole. Mõeldes selle peale siis juba LLMide inteface'mine on natukene rohkem samm väga individuaalse liidese poole, s.t me kasutame küll siiani klassikalisi vahendeid nagu hiir, klaviatuur, monitor jne. Näiteks see kuidas keegi LLMiga suhtleb või sellele käske annab on juba tunduvalt individuaalsem kui see kuidas keegi mingi nupu peale vajutab; lihtsalt palju rohkem erinevaid ja omapäraseid sisendeid annavad sama või sarnase tulemuse.
Ma kujutan ette, et mõtteliidesega läheks see veel individuaalsemaks, kõik mõtlevad ju erinevat moodi...? Seega meil pole mitte vaja ainult tõlgendada mida inimese aju teeb, vaid sarnaselt mingi õppinud mudeliga hakata tuvastama mida just see konkreetne kasutaja soovib? Sellisel juhul, kui me neid mudeleid efektiivsemalt jooksutada ei suuda, oleme ka ajuliidese juures sellise lõhkise küna ees, et ainult suured korpod ja subscription fee vms... Kas oled nõus et sinu mõtetega treenime ja parandame kasutajakogemust? Kui sul midagi varjata pole, siis pole vaja karta ;)
Võibolla ma mõtlen samas valesse suunda, ausalt tahtsin vastata tegelt, aga kirjutasin hoopis midagi muud :D
|