Understanding stance classification of BERT models: an attention-based mechanism
Descripción del Articulo
BERT produces state-of-the-art solutions for many natural language processing tasks at the cost of interpretability. As works discuss the value of BERT’s attention weights to this purpose, we contribute with an attention-based interpretability framework to identify the most influential words for sta...
| Autor: | |
|---|---|
| Formato: | tesis de maestría |
| Fecha de Publicación: | 2022 |
| Institución: | Superintendencia Nacional de Educación Superior Universitaria |
| Repositorio: | Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI |
| Lenguaje: | inglés |
| OAI Identifier: | oai:renati.sunedu.gob.pe:renati/9260 |
| Enlace del recurso: | https://renati.sunedu.gob.pe/handle/sunedu/3693338 http://hdl.handle.net/10183/247549 |
| Nivel de acceso: | acceso abierto |
| Materia: | Representaciones de codificador bidireccional de transformadores Procesamiento en lenguaje natural (Informática) Interpretabilidad (Inteligencia artificial) COVID-19 (Enfermedad) - Aspectos políticos Polarización política https://purl.org/pe-repo/ocde/ford#1.02.01 |
| id |
RENATI_6f7fe670f93d9f78a3960592c655d69e |
|---|---|
| oai_identifier_str |
oai:renati.sunedu.gob.pe:renati/9260 |
| network_acronym_str |
RENATI |
| network_name_str |
Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI |
| repository_id_str |
|
| dc.title.es_PE.fl_str_mv |
Understanding stance classification of BERT models: an attention-based mechanism |
| dc.title.alternative.es_PE.fl_str_mv |
Comprendiendo la clasificación de grupos polarizados usando BERT: un mecanismo basado en atención |
| title |
Understanding stance classification of BERT models: an attention-based mechanism |
| spellingShingle |
Understanding stance classification of BERT models: an attention-based mechanism Córdova Sáenz, Carlos Abel Representaciones de codificador bidireccional de transformadores Procesamiento en lenguaje natural (Informática) Interpretabilidad (Inteligencia artificial) COVID-19 (Enfermedad) - Aspectos políticos Polarización política https://purl.org/pe-repo/ocde/ford#1.02.01 |
| title_short |
Understanding stance classification of BERT models: an attention-based mechanism |
| title_full |
Understanding stance classification of BERT models: an attention-based mechanism |
| title_fullStr |
Understanding stance classification of BERT models: an attention-based mechanism |
| title_full_unstemmed |
Understanding stance classification of BERT models: an attention-based mechanism |
| title_sort |
Understanding stance classification of BERT models: an attention-based mechanism |
| author |
Córdova Sáenz, Carlos Abel |
| author_facet |
Córdova Sáenz, Carlos Abel |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Becker, Karin |
| dc.contributor.author.fl_str_mv |
Córdova Sáenz, Carlos Abel |
| dc.subject.es_PE.fl_str_mv |
Representaciones de codificador bidireccional de transformadores Procesamiento en lenguaje natural (Informática) Interpretabilidad (Inteligencia artificial) COVID-19 (Enfermedad) - Aspectos políticos Polarización política |
| topic |
Representaciones de codificador bidireccional de transformadores Procesamiento en lenguaje natural (Informática) Interpretabilidad (Inteligencia artificial) COVID-19 (Enfermedad) - Aspectos políticos Polarización política https://purl.org/pe-repo/ocde/ford#1.02.01 |
| dc.subject.ocde.es_PE.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#1.02.01 |
| description |
BERT produces state-of-the-art solutions for many natural language processing tasks at the cost of interpretability. As works discuss the value of BERT’s attention weights to this purpose, we contribute with an attention-based interpretability framework to identify the most influential words for stance classification using BERT-based models. Unlike related work, we develop a broader level of interpretability focused on the overall model behavior instead of single instances. We aggregate tokens’ attentions into words’ attention weights that are more meaningful and can be semantically related to the domain. We propose attention metrics to assess words’ influence in the correct classification of stances. We use three case studies related to COVID-19 to assess the proposed framework in a broad experimental setting encompassing six datasets and four BERT pre-trained models for Portuguese and English languages, resulting in sixteen stance classification models. Through establishing five different research questions, we obtained valuable insights on the usefulness of attention weights to interpret stance classification that allowed us to generalize our findings. Our results are independent of a particular pre-trained BERT model and comparable to those obtained using an alternative baseline method. High attention scores improve the probability of finding words that positively impact the model performance and influence the correct classification (up to 82% of identified influential words contribute to correct predictions). The influential words represent the domain and can be used to identify how the model leverages the arguments expressed to predict a stance. |
| publishDate |
2022 |
| dc.date.accessioned.none.fl_str_mv |
2024-06-26T17:35:05Z |
| dc.date.available.none.fl_str_mv |
2024-06-26T17:35:05Z |
| dc.date.issued.fl_str_mv |
2022-06 |
| dc.type.es_PE.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| dc.identifier.uri.none.fl_str_mv |
https://renati.sunedu.gob.pe/handle/sunedu/3693338 http://hdl.handle.net/10183/247549 |
| url |
https://renati.sunedu.gob.pe/handle/sunedu/3693338 http://hdl.handle.net/10183/247549 |
| dc.language.iso.es_PE.fl_str_mv |
eng |
| language |
eng |
| dc.rights.es_PE.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.uri.es_PE.fl_str_mv |
https://creativecommons.org/licenses/by/4.0/deed.es |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by/4.0/deed.es |
| dc.format.es_PE.fl_str_mv |
application/pdf |
| dc.publisher.es_PE.fl_str_mv |
Universidade Federal do Rio Grande do Sul |
| dc.publisher.country.es_PE.fl_str_mv |
BR |
| dc.source.es_PE.fl_str_mv |
Superintendencia Nacional de Educación Superior Universitaria - SUNEDU |
| dc.source.none.fl_str_mv |
reponame:Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI instname:Superintendencia Nacional de Educación Superior Universitaria instacron:SUNEDU |
| instname_str |
Superintendencia Nacional de Educación Superior Universitaria |
| instacron_str |
SUNEDU |
| institution |
SUNEDU |
| reponame_str |
Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI |
| collection |
Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI |
| dc.source.uri.es_PE.fl_str_mv |
Registro Nacional de Trabajos de Investigación - RENATI |
| bitstream.url.fl_str_mv |
https://renati.sunedu.gob.pe/bitstream/renati/9260/1/CordovaSaenzCA.pdf https://renati.sunedu.gob.pe/bitstream/renati/9260/2/Autorizacion.pdf https://renati.sunedu.gob.pe/bitstream/renati/9260/3/license.txt |
| bitstream.checksum.fl_str_mv |
91cb943b35bb858ff1612db8a0b801ed b9e78661e5c012827aacd3eda19d5c64 b39fb1e1cb23db8e93fd74de238cfcd9 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Registro Nacional de Trabajos de Investigación |
| repository.mail.fl_str_mv |
renati@sunedu.gob.pe |
| _version_ |
1816177349448695808 |
| spelling |
Becker, KarinCórdova Sáenz, Carlos Abel2024-06-26T17:35:05Z2024-06-26T17:35:05Z2022-06https://renati.sunedu.gob.pe/handle/sunedu/3693338http://hdl.handle.net/10183/247549BERT produces state-of-the-art solutions for many natural language processing tasks at the cost of interpretability. As works discuss the value of BERT’s attention weights to this purpose, we contribute with an attention-based interpretability framework to identify the most influential words for stance classification using BERT-based models. Unlike related work, we develop a broader level of interpretability focused on the overall model behavior instead of single instances. We aggregate tokens’ attentions into words’ attention weights that are more meaningful and can be semantically related to the domain. We propose attention metrics to assess words’ influence in the correct classification of stances. We use three case studies related to COVID-19 to assess the proposed framework in a broad experimental setting encompassing six datasets and four BERT pre-trained models for Portuguese and English languages, resulting in sixteen stance classification models. Through establishing five different research questions, we obtained valuable insights on the usefulness of attention weights to interpret stance classification that allowed us to generalize our findings. Our results are independent of a particular pre-trained BERT model and comparable to those obtained using an alternative baseline method. High attention scores improve the probability of finding words that positively impact the model performance and influence the correct classification (up to 82% of identified influential words contribute to correct predictions). The influential words represent the domain and can be used to identify how the model leverages the arguments expressed to predict a stance.BERT ofrece soluciones líderes en tareas de procesamiento de lenguaje natural, pero carece de interpretabilidad. Para abordar esto, presentamos un marco de interpretabilidad basado en atención para la clasificación de polarización usando modelos BERT. A diferencia de otros trabajos, nos enfocamos en comprender el comportamiento general del modelo en lugar de instancias individuales, agregando las atenciones de tokens en pesos de atención de palabras más significativos. Evaluamos nuestro enfoque en seis conjuntos de datos y cuatro modelos BERT pre-entrenados para portugués e inglés, generando dieciséis modelos de clasificación de posturas. Mediante cinco preguntas de investigación, obtenemos información valiosa sobre la utilidad de los pesos de atención para interpretar la clasificación de polarización, independientemente del modelo BERT específico. Nuestros resultados son comparables con métodos alternativos y muestran que altas puntuaciones de atención mejoran la predicción correcta, con hasta el 82% de palabras influyentes identificadas contribuyendo a predicciones correctas, lo que permite entender cómo el modelo utiliza los argumentos para predecir un grupo polarizado.Brasil. Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)Tesisapplication/pdfengUniversidade Federal do Rio Grande do SulBRinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/deed.esSuperintendencia Nacional de Educación Superior Universitaria - SUNEDURegistro Nacional de Trabajos de Investigación - RENATIreponame:Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATIinstname:Superintendencia Nacional de Educación Superior Universitariainstacron:SUNEDURepresentaciones de codificador bidireccional de transformadoresProcesamiento en lenguaje natural (Informática)Interpretabilidad (Inteligencia artificial)COVID-19 (Enfermedad) - Aspectos políticosPolarización políticahttps://purl.org/pe-repo/ocde/ford#1.02.01Understanding stance classification of BERT models: an attention-based mechanismComprendiendo la clasificación de grupos polarizados usando BERT: un mecanismo basado en atencióninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do Sul. Instituto de InformáticaCiencias de la ComputaciónMaestro en Ciencias de la Computaciónhttp://purl.org/pe-repo/renati/level#maestrohttps://orcid.org/0000-0003-4967-102770991154http://purl.org/pe-repo/renati/type#tesisORIGINALCordovaSaenzCA.pdfCordovaSaenzCA.pdfTesisapplication/pdf6465687https://renati.sunedu.gob.pe/bitstream/renati/9260/1/CordovaSaenzCA.pdf91cb943b35bb858ff1612db8a0b801edMD51Autorizacion.pdfAutorizacion.pdfAutorización del registroapplication/pdf192333https://renati.sunedu.gob.pe/bitstream/renati/9260/2/Autorizacion.pdfb9e78661e5c012827aacd3eda19d5c64MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-8956https://renati.sunedu.gob.pe/bitstream/renati/9260/3/license.txtb39fb1e1cb23db8e93fd74de238cfcd9MD53renati/9260oai:renati.sunedu.gob.pe:renati/92602024-06-26 12:38:44.962Registro Nacional de Trabajos de Investigaciónrenati@sunedu.gob.peTGFzIHVuaXZlcnNpZGFkZXMsIGluc3RpdHVjaW9uZXMgeSBlc2N1ZWxhcyBkZSBlZHVjYWNpw7NuIHN1cGVyaW9yIHRpZW5lbiBjb21vIG9ibGlnYWNpw7NuIHJlZ2lzdHJhciB5IGRlcG9zaXRhciB0b2RvcyBsb3MgdHJhYmFqb3MgY29uZHVjZW50ZXMgYSBncmFkb3MgeSB0w610dWxvcywgaW5jbHV5ZW5kbyBsb3MgbWV0YWRhdG9zIGVuIHN1cyByZXBvc2l0b3Jpb3MgaW5zdGl0dWNpb25hbGVzIHByZWNpc2FuZG8gc2kgc29uIGRlIGFjY2VzbyBhYmllcnRvLCByZXN0cmluZ2lkbywgY29uIHVuIHBlcmlvZG8gZGUgZW1iYXJnbyBvIGNvbiBsYSBjb25kaWNpw7NuIGNlcnJhZGEsIGNvbnRhbmRvIGNvbiBsYSBhdXRvcml6YWNpw7NuIHByZXZpYSB5IHBvciBlc2NyaXRvIGRlIGxvcyBhdXRvcmVzIGRlIGxvcyB0cmFiYWpvcyBwYXJhIHN1IHJlcHJvZHVjY2nDs24geSBjb211bmljYWNpw7NuIHDDumJsaWNhIGNvbiBlbCBmaW4gZGUgZXZpdGFyIGN1YWxxdWllciBhZmVjdGFjacOzbiBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBjb25mb3JtZSBlbCBtYXJjbyBub3JtYXRpdm8gdmlnZW50ZSAoUmVnbGFtZW50byBSRU5BVEksIGFydMOtY3VsbyAxMi4yKS4gCgpMYXMgcGVyc29uYXMgbmF0dXJhbGVzIHF1ZSBzb2xpY2l0YW4gZWwgcmVjb25vY2ltaWVudG8gZGUgdW4gZ3JhZG8geS9vIHTDrXR1bG8gb3RvcmdhZG8gZW4gZWwgZXh0cmFuamVybyBwdWVkZW4gcmVxdWVyaXIgZWwgYWxvamFtaWVudG8gZGVsIHRyYWJham8gcG9yIGVsIGN1YWwgb2J0dXZpZXJvbiBkaWNobyBncmFkbyBvIHTDrXR1bG8gZW4gZWwgUmVjb2xlY3RvciBEaWdpdGFsIFJFTkFUSSwgZW4gY2FzbyBzZSBoYXlhIHV0aWxpemFkbyBlc3RhIG1vZGFsaWRhZCBwYXJhIGxhIG9idGVuY2nDs24gZGVsIGdyYWRvIG8gdMOtdHVsbyByZXNwZWN0aXZvIChSZWdsYW1lbnRvIFJFTkFUSSwgYXJ0w61jdWxvIDE5LjEpLgo= |
| score |
13.905282 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).