Bing Chat alimentat de AI câștigă trei personalități distincte – Ars Technica

Bing Chat alimentat de AI câștigă trei personalități distincte – Ars Technica

Bing Edwards / Ars Technica

Miercuri, angajatul Microsoft Mike Davidson anunta Compania a introdus trei stiluri de personalitate distincte pentru botul său experimental Bing Chat alimentat de AI: Creativ, Echilibrat sau Acurat. Microsoft era Teste Funcție din 24 februarie cu un set limitat de utilizatori. Comutarea între moduri produce rezultate diferite care le schimbă echilibru între precizie și creativitate.

Bing Chat este un asistent bazat pe AI bazat pe un Advanced Large Language Model (LLM) dezvoltat de OpenAI. Principalul avantaj al Bing Chat este că poate căuta pe web și poate încorpora rezultatele în răspunsurile sale.

Microsoft a anunțat Bing Chat pe 7 februarie și, la scurt timp după ce a fost lansat, atacurile ostile au determinat în mod regulat o versiune timpurie a Bing Chat să simuleze frenezia, iar utilizatorii au descoperit că un bot ar putea fi aduși la el. amenințat ei. Nu după mult timp, Microsoft a retras în mod masiv revoluțiile Bing Chat prin impunerea unor limite stricte asupra duratei conversațiilor.

De atunci, compania a experimentat modalități de a aduce înapoi o parte din personalitatea grosolană a Bing Chat celor care și-au dorit-o, dar și de a permite altor utilizatori să caute răspunsuri mai subtile. Acest lucru a dus la o nouă interfață „stil conversațional” cu trei selecții.

În experimentele noastre cu toate cele trei moduri, am observat că modul „Creativ” a produs sugestii mai scurte, mai deschise, care nu au fost întotdeauna sigure sau practice. Modul „precise” a greșit din partea precauției, uneori nesugerând nimic dacă nu a văzut o modalitate sigură de a obține un rezultat. Între ele, cel mai lung mod „echilibrat” produce adesea răspunsuri cu cele mai detaliate rezultate de căutare și citări de pe site-uri web în răspunsurile lor.

READ  GPU-urile AMD RDNA 3 „Navi 3X” oferă cache dublu per unitate de calcul și matrice de shader

Cu modele mari de limbaj, erorile neașteptate (halucinații) cresc adesea pe măsură ce „creativitatea” crește, ceea ce înseamnă de obicei că modelul AI se va abate mai mult de la informațiile pe care le-a învățat în setul său de date. Cercetătorii AI numesc adesea această caracteristică „TemperaturaDar membrii echipei Bing spun că sunt mai multe în lucru cu noile modele de conversație.

Potrivit unui angajat Microsoft Mihai BarakhinComutarea modurilor în Bing Chat schimbă aspecte fundamentale ale comportamentului botului, inclusiv comutarea între diferite modele AI primite pregătire suplimentară a răspunsurilor umane la rezultatele sale. Diferite moduri folosesc, de asemenea, solicitări inițiale diferite, ceea ce înseamnă că Microsoft modifică promptul de selecție a caracterelor, ca cel dezvăluit în atacul de injecție instantanee despre care am scris în februarie.

În timp ce Bing Chat este încă disponibil doar pentru cei care s-au înscris pe o listă de așteptare, Microsoft continuă să îmbunătățească în mod continuu Bing Chat și alte funcții de căutare Bing bazate pe inteligență artificială, pe măsură ce se pregătește să le lanseze mai pe scară largă pentru utilizatori. Microsoft a anunțat recent planuri de a integra tehnologia în Windows 11.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *