Mulți angajați din SUA apelează la ChatGPT pentru a-i ajuta la îndeplinirea sarcinilor de bază, a constatat un sondaj Reuters/Ipsos, în ciuda temerilor care i-au determinat pe angajatori precum Microsoft și Google să reducă utilizarea acestuia.
Companiile din întreaga lume iau în considerare cum să folosească cel mai bine ChatGPT, un program chatbot care folosește AI generativă pentru a ține conversații cu utilizatorii și a răspunde la nenumărate solicitări, arată News.ro.
Cu toate acestea, firmele și companiile de securitate și-au exprimat îngrijorarea că ar putea duce la scurgeri de proprietate intelectuală și strategii.
28 noiembrie - Profit Financial.forum
Exemple de persoane care folosesc ChatGPT pentru a le ajuta în munca de zi cu zi includ redactarea de e-mailuri, rezumarea documentelor și efectuarea cercetărilor preliminare.
Aproximativ 28% dintre respondenții într-un sondaj online privind inteligența artificială (AI), efectuat între 11 și 17 iulie, au declarat că folosesc în mod regulat ChatGPT la locul de muncă, în timp ce doar 22% au spus că angajatorii lor au permis în mod explicit astfel de instrumente externe.
Sondajul Reuters/Ipsos, efectuat pe 2.625 de adulți din Statele Unite, a avut un interval de credibilitate, o măsură de precizie, de aproximativ 2 puncte procentuale.
Aproximativ 10% dintre cei chestionați au spus că șefii lor au interzis în mod explicit instrumentele externe de inteligență artificială, în timp ce aproximativ 25% nu știu dacă compania lor a permis utilizarea tehnologiei.
ChatGPT a devenit aplicația cu cea mai rapidă creștere din istorie după lansarea sa în noiembrie. A creat atât entuziasm, cât și alarmă, punând dezvoltatorul său OpenAI în conflict cu autoritățile de reglementare, în special în Europa, unde colectarea de date în masă a companiei a atras critici din partea organelor de supraveghere a confidențialității.
Evaluatorii umani de la alte companii pot citi oricare dintre chat-urile generate, iar cercetătorii au descoperit că inteligența artificială similară AI ar putea reproduce datele pe care le-a absorbit în timpul antrenamentului, creând un risc potențial pentru informațiile proprietare.
CITEȘTE ȘI Bursele europene au închis în scădere, efectul rezultatelor financiare ale companiilor și inflației din SUA”Oamenii nu înțeleg cum sunt folosite datele atunci când folosesc servicii de inteligență artificială generativă. Pentru companii, acest lucru este esențial, deoarece utilizatorii nu au un contract cu multe AI - pentru că sunt un serviciu gratuit -, astfel încât companiile nu și-ar fi asumat riscul prin procesul lor obișnuit de evaluare”, a declarat Ben King, VP pentru încrederea clienților la firma de securitate corporativă Okta.
OpenAI a refuzat să comenteze atunci când a fost întrebat despre implicațiile angajaților individuali care folosesc ChatGPT, dar a evidențiat o postare recentă pe blogul companiei care asigură partenerii corporativi că datele lor nu vor fi folosite pentru a instrui chatbot-ul în continuare, cu excepția cazului în care aceștia și-au dat permisiunea explicită.
Când oamenii folosesc Google Bard, acesta colectează date precum text, locație și alte informații de utilizare. Compania permite utilizatorilor să șteargă activitățile anterioare din conturile lor și să solicite eliminarea conținutului introdus în AI.
Google a refuzat să comenteze atunci când i s-au cerut mai multe detalii. Microsoft nu a răspuns imediat unei solicitări de comentarii.
Un angajat al Tinder, cu sediul în SUA, a spus că lucrătorii de la aplicația de întâlniri au folosit ChatGPT pentru ”sarcini inofensive”, cum ar fi scrierea de e-mailuri, chiar dacă compania nu permite acest lucru în mod oficial.
"Sunt e-mailuri obișnuite. Foarte lipsite de consecințe, cum ar fi să faci invitații amuzante în calendar pentru evenimentele echipei, e-mailuri de adio când cineva pleacă... Îl folosim și pentru cercetări generale", a spus angajatul, care a refuzat să fie numit pentru că nu era autorizat să vorbească cu reporterii.
Angajatul a spus că Tinder nu are o regulă ”fără ChatGPT”, dar că angajații îl folosesc în continuare într-un ”mod generic, care nu dezvăluie nimic despre faptul că suntem la Tinder”.
CITEȘTE ȘI VIDEO Incendii catastrofale în Hawaii: Zeci de persoane decedate, mii de locuitori evacuați, pagube de sute de milioane de dolari. Reacția autorităților, în discuțieReuters nu a putut confirma în mod independent modul în care angajații de la Tinder folosesc ChatGPT.
Tinder a spus că a oferit ”îndrumări regulate angajaților cu privire la cele mai bune practici de securitate și date”.
În mai, Samsung Electronics a interzis personalului la nivel global să folosească ChatGPT și instrumente similare AI, după ce a descoperit că un angajat a încărcat cod sensibil pe platformă.
”Examinăm măsurile pentru a crea un mediu sigur pentru utilizarea generativă a inteligenței artificiale, care sporește productivitatea și eficiența angajaților. Cu toate acestea, până când aceste măsuri sunt gata, restricționăm temporar utilizarea AI generativă prin dispozitivele companiei”, a declarat Samsung într-o declarație din 3 august.
Reuters a scris în iunie că Alphabet și-a avertizat angajații cu privire la modul în care folosesc chatbot-uri, inclusiv Google Bard, în același timp în care comercializează programul la nivel global.
Google a spus că, deși Bard poate face sugestii de cod nedorite, îi ajută pe programatori. De asemenea, a spus că își propune să fie transparent cu privire la limitările tehnologiei sale.
Unele companii au declarat pentru Reuters că adoptă ChatGPT și platforme similare, păstrând în același timp securitatea.
”Am început să testăm și să învățăm despre modul în care AI poate îmbunătăți eficiența operațională”, a declarat un purtător de cuvânt al Coca-Cola din Atlanta, Georgia, adăugând că datele rămân în firewall-ul său.
”Pe plan intern, am lansat recent versiunea noastră de întreprindere a Coca-Cola ChatGPT pentru productivitate”, a spus purtătorul de cuvânt, adăugând că Coca-Cola intenționează să folosească AI pentru a îmbunătăți eficacitatea și productivitatea echipelor sale.
CITEȘTE ȘI VIDEO&FOTO Proteste la direcții ale Finanțelor din teritoriu - Promisiunile obținute: Fără disponibilizări! - DOCUMENTÎntre timp, Dawn Allen, directorul financiar al Tate & Lyle, a declarat pentru Reuters că producătorul global de ingrediente testa ChatGPT, ”găsind o modalitate de a-l folosi într-un mod sigur”.
"Avem diferite echipe care decid cum doresc să-l folosească, printr-o serie de experimente. Ar trebui să-l folosim în relațiile cu investitorii? Ar trebui să-l folosim în managementul cunoștințelor? Cum îl putem folosi pentru a îndeplini sarcini mai eficient?"
Unii angajați spun că nu pot accesa deloc platforma de pe computerele companiei lor.
”Este complet interzis în rețeaua de birouri, de parcă nu funcționează”, a spus un angajat al Procter & Gamble, care a dorit să rămână anonim pentru că nu era autorizat să vorbească cu presa.
P&G a refuzat să comenteze.
Reuters nu a putut să confirme în mod independent dacă angajații de la P&G nu au putut folosi ChatGPT.
Paul Lewis, ofițer șef de securitate a informațiilor la firma de securitate cibernetică Nominet, a spus că firmele au dreptate să fie precaute.
”Toată lumea înțelege beneficiile aceastei capabilități sporite, dar informațiile nu sunt complet sigure și pot fi prelucrate”, a spus el, invocând ”mijloace rău intenționate” care pot fi folosite pentru a determina ca chatbots AI să dezvăluie informații.
Febra ChatGPT se răspândește în companiile americane, iar unele dintre acestea sunt îngrijorate
Mulți angajați din SUA apelează la ChatGPT pentru a-i ajuta la îndeplinirea sarcinilor de bază, a constatat un sondaj Reuters/Ipsos, în ciuda temerilor care i-au determinat pe angajatori precum Microsoft și Google să reducă utilizarea acestuia, transmite Reuters.
Companiile din întreaga lume iau în considerare cum să folosească cel mai bine ChatGPT, un program chatbot care folosește AI generativă pentru a ține conversații cu utilizatorii și a răspunde la nenumărate solicitări.
Cu toate acestea, firmele și companiile de securitate și-au exprimat îngrijorarea că ar putea duce la scurgeri de proprietate intelectuală și strategii.
Exemple de persoane care folosesc ChatGPT pentru a le ajuta în munca de zi cu zi includ redactarea de e-mailuri, rezumarea documentelor și efectuarea cercetărilor preliminare.
Aproximativ 28% dintre respondenții într-un sondaj online privind inteligența artificială (AI), efectuat între 11 și 17 iulie, au declarat că folosesc în mod regulat ChatGPT la locul de muncă, în timp ce doar 22% au spus că angajatorii lor au permis în mod explicit astfel de instrumente externe.
Sondajul Reuters/Ipsos, efectuat pe 2.625 de adulți din Statele Unite, a avut un interval de credibilitate, o măsură de precizie, de aproximativ 2 puncte procentuale.
Aproximativ 10% dintre cei chestionați au spus că șefii lor au interzis în mod explicit instrumentele externe de inteligență artificială, în timp ce aproximativ 25% nu știu dacă compania lor a permis utilizarea tehnologiei.
ChatGPT a devenit aplicația cu cea mai rapidă creștere din istorie după lansarea sa în noiembrie. A creat atât entuziasm, cât și alarmă, punând dezvoltatorul său OpenAI în conflict cu autoritățile de reglementare, în special în Europa, unde colectarea de date în masă a companiei a atras critici din partea organelor de supraveghere a confidențialității.
Evaluatorii umani de la alte companii pot citi oricare dintre chat-urile generate, iar cercetătorii au descoperit că inteligența artificială similară AI ar putea reproduce datele pe care le-a absorbit în timpul antrenamentului, creând un risc potențial pentru informațiile proprietare.
”Oamenii nu înțeleg cum sunt folosite datele atunci când folosesc servicii de inteligență artificială generativă. Pentru companii, acest lucru este esențial, deoarece utilizatorii nu au un contract cu multe AI - pentru că sunt un serviciu gratuit -, astfel încât companiile nu și-ar fi asumat riscul prin procesul lor obișnuit de evaluare”, a declarat Ben King, VP pentru încrederea clienților la firma de securitate corporativă Okta.
OpenAI a refuzat să comenteze atunci când a fost întrebat despre implicațiile angajaților individuali care folosesc ChatGPT, dar a evidențiat o postare recentă pe blogul companiei care asigură partenerii corporativi că datele lor nu vor fi folosite pentru a instrui chatbot-ul în continuare, cu excepția cazului în care aceștia și-au dat permisiunea explicită.
Când oamenii folosesc Google Bard, acesta colectează date precum text, locație și alte informații de utilizare. Compania permite utilizatorilor să șteargă activitățile anterioare din conturile lor și să solicite eliminarea conținutului introdus în AI.
Google a refuzat să comenteze atunci când i s-au cerut mai multe detalii. Microsoft nu a răspuns imediat unei solicitări de comentarii.
Un angajat al Tinder, cu sediul în SUA, a spus că lucrătorii de la aplicația de întâlniri au folosit ChatGPT pentru ”sarcini inofensive”, cum ar fi scrierea de e-mailuri, chiar dacă compania nu permite acest lucru în mod oficial.
"Sunt e-mailuri obișnuite. Foarte lipsite de consecințe, cum ar fi să faci invitații amuzante în calendar pentru evenimentele echipei, e-mailuri de adio când cineva pleacă... Îl folosim și pentru cercetări generale", a spus angajatul, care a refuzat să fie numit pentru că nu era autorizat să vorbească cu reporterii.
Angajatul a spus că Tinder nu are o regulă ”fără ChatGPT”, dar că angajații îl folosesc în continuare într-un ”mod generic, care nu dezvăluie nimic despre faptul că suntem la Tinder”.
Reuters nu a putut confirma în mod independent modul în care angajații de la Tinder folosesc ChatGPT.
Tinder a spus că a oferit ”îndrumări regulate angajaților cu privire la cele mai bune practici de securitate și date”.
În mai, Samsung Electronics a interzis personalului la nivel global să folosească ChatGPT și instrumente similare AI, după ce a descoperit că un angajat a încărcat cod sensibil pe platformă.
”Examinăm măsurile pentru a crea un mediu sigur pentru utilizarea generativă a inteligenței artificiale, care sporește productivitatea și eficiența angajaților. Cu toate acestea, până când aceste măsuri sunt gata, restricționăm temporar utilizarea AI generativă prin dispozitivele companiei”, a declarat Samsung într-o declarație din 3 august.
Reuters a scris în iunie că Alphabet și-a avertizat angajații cu privire la modul în care folosesc chatbot-uri, inclusiv Google Bard, în același timp în care comercializează programul la nivel global.
Google a spus că, deși Bard poate face sugestii de cod nedorite, îi ajută pe programatori. De asemenea, a spus că își propune să fie transparent cu privire la limitările tehnologiei sale.
Unele companii au declarat pentru Reuters că adoptă ChatGPT și platforme similare, păstrând în același timp securitatea.
”Am început să testăm și să învățăm despre modul în care AI poate îmbunătăți eficiența operațională”, a declarat un purtător de cuvânt al Coca-Cola din Atlanta, Georgia, adăugând că datele rămân în firewall-ul său.
”Pe plan intern, am lansat recent versiunea noastră de întreprindere a Coca-Cola ChatGPT pentru productivitate”, a spus purtătorul de cuvânt, adăugând că Coca-Cola intenționează să folosească AI pentru a îmbunătăți eficacitatea și productivitatea echipelor sale.
Între timp, Dawn Allen, directorul financiar al Tate & Lyle, a declarat pentru Reuters că producătorul global de ingrediente testa ChatGPT, ”găsind o modalitate de a-l folosi într-un mod sigur”.
"Avem diferite echipe care decid cum doresc să-l folosească, printr-o serie de experimente. Ar trebui să-l folosim în relațiile cu investitorii? Ar trebui să-l folosim în managementul cunoștințelor? Cum îl putem folosi pentru a îndeplini sarcini mai eficient?"
Unii angajați spun că nu pot accesa deloc platforma de pe computerele companiei lor.
”Este complet interzis în rețeaua de birouri, de parcă nu funcționează”, a spus un angajat al Procter & Gamble, care a dorit să rămână anonim pentru că nu era autorizat să vorbească cu presa.
P&G a refuzat să comenteze.
Reuters nu a putut să confirme în mod independent dacă angajații de la P&G nu au putut folosi ChatGPT.
Paul Lewis, ofițer șef de securitate a informațiilor la firma de securitate cibernetică Nominet, a spus că firmele au dreptate să fie precaute.
”Toată lumea înțelege beneficiile aceastei capabilități sporite, dar informațiile nu sunt complet sigure și pot fi prelucrate”, a spus el, invocând ”mijloace rău intenționate” care pot fi folosite pentru a determina ca chatbots AI să dezvăluie informații.