{"id":5531,"date":"2024-02-10T13:56:34","date_gmt":"2024-02-10T13:56:34","guid":{"rendered":"https:\/\/processtalks.com\/?p=5531"},"modified":"2024-02-10T14:21:24","modified_gmt":"2024-02-10T14:21:24","slug":"com-adaptar-models-massius-de-llenguatge-a-les-teves-necessitats-especifiques","status":"publish","type":"post","link":"https:\/\/processtalks.com\/ca\/com-adaptar-models-massius-de-llenguatge-a-les-teves-necessitats-especifiques\/","title":{"rendered":"Com adaptar models massius de llenguatge a les teves necessitats espec\u00edfiques"},"content":{"rendered":"\n
El camp de la Intel\u00b7lig\u00e8ncia Artificial (IA) ha estat testimoni aquest darrer any d’un augment sense precedents en l’\u00fas de la IA generativa gr\u00e0cies a l’adopci\u00f3 generalitzada de models massius de llenguatge (MML) per a una infinitat de tasques. Des de funcions de resum autom\u00e0tic o reescriptura de text fins a tasques m\u00e9s complexes, els MML s’han convertit en la soluci\u00f3 ideal per a reptes de caire molt divers.<\/p>\n\n\n\n
Tanmateix, per tal d\u2019aprofitar-ne realment tot el seu poder, molt sovint cal el que t\u00e8cnicament es coneix com \u201cfer aterrar\u201d aquests models; \u00e9s a dir, personalitzar-los per qu\u00e8 satisfacin els requisits espec\u00edfics de cada cas. Algunes t\u00e8cniques per fer-ho s\u00f3n les que es coneixen amb els termes anglesos de prompting<\/em><\/strong>, fine-tuning<\/em><\/strong> i retrieval augmented generation<\/em><\/strong> (RAG<\/em><\/strong>). Les t\u00e8cniques de prompting<\/em> i fine-tuning<\/em> difereixen de RAG perqu\u00e8 impliquen instruir el model en el “com” (\u00e9s a dir, en com realitzar millor una tasca), mentre que RAG l\u2019instrueix en el “qu\u00e8” (qu\u00e8 ha de saber el model per entendre i resoldre q\u00fcestions sobre un domini determinat). En aquest article, ens centrarem en les dues primeres t\u00e8cniques, explicant oom les podeu incorporar en els vostres projectes per elevar-los a nivells superiors de qualitat, rendiment i usabilitat.<\/p>\n\n\n\n El prompting<\/em><\/strong> consisteix en guiar el comportament del model proporcionant-li instruccions (possiblement acompanyades d\u2019exemples) que indiquen el tipus de resultat que s\u2019espera. \u00c9s ideal quan la tasca a realitzar permet una aproximaci\u00f3 general i no hi ha necessitat d\u2019aprofundir en detalls gaire espec\u00edfics o t\u00e8cnics.<\/p>\n\n\n\n Per contra, el fine-tuning<\/strong> \u00e9s una aproximaci\u00f3 m\u00e9s espec\u00edfica on el model s’entrena fent servir un conjunt de dades molt concret i enfocat al cas d\u2019\u00fas. \u00c9s la millor opci\u00f3 quan la tasca en q\u00fcesti\u00f3 exigeix un resultat molt particular (per exemple a nivell d\u2019estructura formal), un coneixement profund del domini o b\u00e9 una adaptaci\u00f3 a una ind\u00fastria concreta. Aquesta t\u00e8cnica demana treballar amb conjunts de dades d\u2019un cert volum per tal d\u2019assegurar varietat i, per tant, evitarla sobreadaptaci\u00f3 del model (en angl\u00e8s, over-fitting<\/em>), que passa quan el model apr\u00e8n de manera tan fidel els patrons que hi ha en les dades d’entrenament, que \u00e9s incapa\u00e7 de generalitzar i per tant falla amb dades noves que no ha vist i que s\u00f3n diferents de les apreses.<\/p>\n\n\n\n La taula seg\u00fcent detalla les difer\u00e8ncies entre aquests dos enfocs:<\/p>\n\n\n\n <\/p>\n\n\n\n Analitzarem les implicacions que t\u00e9 utilitzar cada una d\u2019aquestes dues t\u00e8cniques prenent com a cas d’\u00fas un projecte d\u2019implementaci\u00f3 d’una interf\u00edcie de llenguatge natural<\/strong> que permet interactuar amb aplicacions m\u00f2bils simplement passant ordres de veu. Es tracta d\u2019un projecte que no busca nom\u00e9s millorar el grau d\u2019usabilitat de les aplicacions, sin\u00f3 de contribuir cap a la inclusivitat i l’accessibilitat tecnol\u00f2gica per a tothom.<\/p>\n\n\n\n<\/a>Prompting<\/em> vs. Fine-tuning<\/em><\/h1>\n\n\n\n
Prompting<\/em><\/strong><\/td> Fine-tuning<\/em><\/strong><\/td><\/tr> Descripci\u00f3 general<\/strong><\/strong><\/td><\/tr> Es proporcionen instruccions al model (possiblement acompanyades d\u2019exemples) per guiar-ne el seu comportament sense modificar-ne significativament el seu coneixement previ.<\/td> S\u2019instrueix el model fent servir un conjunt de dades d\u2019un cert volum, adaptant-lo aix\u00ed a un context o tasca m\u00e9s especialitzada.<\/td><\/tr> Flexibilitat<\/strong><\/strong><\/td><\/tr> Aproximaci\u00f3 flexible i generalista, adequada per a una gamma de tasques \u00e0mplia.<\/td> Permet una adaptaci\u00f3 m\u00e9s personalitzada i espec\u00edfica a la tasca; se sacrifica un cert grau de capacitat generalista del model a canvi de millorar-ne el rendiment en contextos espec\u00edfics.<\/td><\/tr> Complexitat<\/strong><\/td><\/tr> Nivell de complexitat baix en tant que implica treballar amb les capacitats ja existents del model pre-entrenat.<\/td> Nivell de complexitat m\u00e9s alt perqu\u00e8 requereix la creaci\u00f3 i gesti\u00f3 d’un conjunt de dades especialitzat per al cas d\u2019\u00fas.<\/td><\/tr><\/tbody><\/table> Aplicaci\u00f3 d\u2019exemple<\/h1>\n\n\n\n