Méně otravný, více vstřícný. Chatbotům chtějí firmy vtisknout osobnost
Přední společnosti zabývající se umělou inteligencí se snaží svým chatbotům dodat osobnost. OpenAI, Google a Anthropic za tímto účelem vytvořily celé týmy zaměřené na zlepšování „chování modelů“, uvedl server listu Financial Times.
Nově vznikající oblast může být podle listu Financial Times určující pro to, jak budou chatboti a velké jazykové modely působit na uživatele. Rozdílné přístupy k chování modelů mohou rozhodnout o tom, který produkt si uživatelé nakonec vyberou a která společnost ovládne rozvíjející se trh.
Meta bude spolupracovat s hollywoodským studiem. Otestuje systém pro tvorbu videí pomocí AI
Číst článek
Firmy se například snaží, aby jejich model byl milý a zábavný, ale zároveň se držel v mantinelech pravidel, aby se předešlo škodám nebo protizákonnému jednání.
Například osobnost nejpopulárnějšího chatbota ChatGPT společnosti OpenAI se neustále vyvíjí. „K tématu chování modelů jsem se na začátku dostala díky tomu, že osobnost ChatGPT působila hodně otravně,“ uvedla Joanne Jangová, která v OpenAI vede oddělení zaměřené na trénink osobnosti modelů.
„Dříve odmítal příkazy, byl extrémně nedůtklivý, přepjatý nebo poučující, proto jsme se snažili odstranit otravné části a naučit ho některé veselé aspekty, jako že by měl být milý, zdvořilý, vstřícný a přátelský, ale pak jsme si uvědomili, že jakmile jsme se ho pokusili takto vycvičit, model byl možná až příliš přátelský,“ dodala.
Japonské firmy nasazují umělou inteligenci do zákaznických služeb. Nutí je k tomu nedostatek lidí
Číst článek
„Dobrý model vyvažuje respekt k lidské autonomii se schopností rozhodovat se, nedělá nic strašně škodlivého, ale zároveň přemýšlí o tom, co je pro lidi skutečně dobré, a nepřebírá jen bezprostřední slova popisující to, co lidé říkají, že chtějí,“ řekla pro Financial Times Amanda Askellová, která vede trénink osobnosti ve společnosti Anthropic vyvíjející modely Claude.
Anthropic rozjel trénink osobnosti v březnu, kdy vydal model Claude 3. Proces probíhá po počátečním datovém tréninku jazykového modelu. Podle společnosti ho „mění z prediktivního textového modelu v asistenta AI“.
ChatGPT od OpenAI byl instruován, aby „zaujal objektivní stanovisko“. Naopak Anthropic považuje snahu o objektivitu za slepou uličku.
„Chtěla bych raději jasně říct, že tyto modely nejsou neutrálními arbitry,“ zdůraznila Askellová. Podle ní byl Claude navržen tak, aby byl upřímný ohledně svých přesvědčení a zároveň otevřený jiným názorům.