Understanding stance classification of BERT models: an attention-based mechanism

Descripción del Articulo

BERT produces state-of-the-art solutions for many natural language processing tasks at the cost of interpretability. As works discuss the value of BERT’s attention weights to this purpose, we contribute with an attention-based interpretability framework to identify the most influential words for sta...

Descripción completa

Detalles Bibliográficos
Autor: Córdova Sáenz, Carlos Abel
Formato: tesis de maestría
Fecha de Publicación:2022
Institución:Superintendencia Nacional de Educación Superior Universitaria
Repositorio:Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI
Lenguaje:inglés
OAI Identifier:oai:renati.sunedu.gob.pe:renati/9260
Enlace del recurso:https://renati.sunedu.gob.pe/handle/sunedu/3693338
http://hdl.handle.net/10183/247549
Nivel de acceso:acceso abierto
Materia:Representaciones de codificador bidireccional de transformadores
Procesamiento en lenguaje natural (Informática)
Interpretabilidad (Inteligencia artificial)
COVID-19 (Enfermedad) - Aspectos políticos
Polarización política
https://purl.org/pe-repo/ocde/ford#1.02.01
id RENATI_6f7fe670f93d9f78a3960592c655d69e
oai_identifier_str oai:renati.sunedu.gob.pe:renati/9260
network_acronym_str RENATI
network_name_str Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI
repository_id_str
dc.title.es_PE.fl_str_mv Understanding stance classification of BERT models: an attention-based mechanism
dc.title.alternative.es_PE.fl_str_mv Comprendiendo la clasificación de grupos polarizados usando BERT: un mecanismo basado en atención
title Understanding stance classification of BERT models: an attention-based mechanism
spellingShingle Understanding stance classification of BERT models: an attention-based mechanism
Córdova Sáenz, Carlos Abel
Representaciones de codificador bidireccional de transformadores
Procesamiento en lenguaje natural (Informática)
Interpretabilidad (Inteligencia artificial)
COVID-19 (Enfermedad) - Aspectos políticos
Polarización política
https://purl.org/pe-repo/ocde/ford#1.02.01
title_short Understanding stance classification of BERT models: an attention-based mechanism
title_full Understanding stance classification of BERT models: an attention-based mechanism
title_fullStr Understanding stance classification of BERT models: an attention-based mechanism
title_full_unstemmed Understanding stance classification of BERT models: an attention-based mechanism
title_sort Understanding stance classification of BERT models: an attention-based mechanism
author Córdova Sáenz, Carlos Abel
author_facet Córdova Sáenz, Carlos Abel
author_role author
dc.contributor.advisor.fl_str_mv Becker, Karin
dc.contributor.author.fl_str_mv Córdova Sáenz, Carlos Abel
dc.subject.es_PE.fl_str_mv Representaciones de codificador bidireccional de transformadores
Procesamiento en lenguaje natural (Informática)
Interpretabilidad (Inteligencia artificial)
COVID-19 (Enfermedad) - Aspectos políticos
Polarización política
topic Representaciones de codificador bidireccional de transformadores
Procesamiento en lenguaje natural (Informática)
Interpretabilidad (Inteligencia artificial)
COVID-19 (Enfermedad) - Aspectos políticos
Polarización política
https://purl.org/pe-repo/ocde/ford#1.02.01
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.01
description BERT produces state-of-the-art solutions for many natural language processing tasks at the cost of interpretability. As works discuss the value of BERT’s attention weights to this purpose, we contribute with an attention-based interpretability framework to identify the most influential words for stance classification using BERT-based models. Unlike related work, we develop a broader level of interpretability focused on the overall model behavior instead of single instances. We aggregate tokens’ attentions into words’ attention weights that are more meaningful and can be semantically related to the domain. We propose attention metrics to assess words’ influence in the correct classification of stances. We use three case studies related to COVID-19 to assess the proposed framework in a broad experimental setting encompassing six datasets and four BERT pre-trained models for Portuguese and English languages, resulting in sixteen stance classification models. Through establishing five different research questions, we obtained valuable insights on the usefulness of attention weights to interpret stance classification that allowed us to generalize our findings. Our results are independent of a particular pre-trained BERT model and comparable to those obtained using an alternative baseline method. High attention scores improve the probability of finding words that positively impact the model performance and influence the correct classification (up to 82% of identified influential words contribute to correct predictions). The influential words represent the domain and can be used to identify how the model leverages the arguments expressed to predict a stance.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2024-06-26T17:35:05Z
dc.date.available.none.fl_str_mv 2024-06-26T17:35:05Z
dc.date.issued.fl_str_mv 2022-06
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
dc.identifier.uri.none.fl_str_mv https://renati.sunedu.gob.pe/handle/sunedu/3693338
http://hdl.handle.net/10183/247549
url https://renati.sunedu.gob.pe/handle/sunedu/3693338
http://hdl.handle.net/10183/247549
dc.language.iso.es_PE.fl_str_mv eng
language eng
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es_PE.fl_str_mv https://creativecommons.org/licenses/by/4.0/deed.es
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0/deed.es
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidade Federal do Rio Grande do Sul
dc.publisher.country.es_PE.fl_str_mv BR
dc.source.es_PE.fl_str_mv Superintendencia Nacional de Educación Superior Universitaria - SUNEDU
dc.source.none.fl_str_mv reponame:Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI
instname:Superintendencia Nacional de Educación Superior Universitaria
instacron:SUNEDU
instname_str Superintendencia Nacional de Educación Superior Universitaria
instacron_str SUNEDU
institution SUNEDU
reponame_str Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI
collection Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATI
dc.source.uri.es_PE.fl_str_mv Registro Nacional de Trabajos de Investigación - RENATI
bitstream.url.fl_str_mv https://renati.sunedu.gob.pe/bitstream/renati/9260/1/CordovaSaenzCA.pdf
https://renati.sunedu.gob.pe/bitstream/renati/9260/2/Autorizacion.pdf
https://renati.sunedu.gob.pe/bitstream/renati/9260/3/license.txt
bitstream.checksum.fl_str_mv 91cb943b35bb858ff1612db8a0b801ed
b9e78661e5c012827aacd3eda19d5c64
b39fb1e1cb23db8e93fd74de238cfcd9
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Registro Nacional de Trabajos de Investigación
repository.mail.fl_str_mv renati@sunedu.gob.pe
_version_ 1816177349448695808
spelling Becker, KarinCórdova Sáenz, Carlos Abel2024-06-26T17:35:05Z2024-06-26T17:35:05Z2022-06https://renati.sunedu.gob.pe/handle/sunedu/3693338http://hdl.handle.net/10183/247549BERT produces state-of-the-art solutions for many natural language processing tasks at the cost of interpretability. As works discuss the value of BERT’s attention weights to this purpose, we contribute with an attention-based interpretability framework to identify the most influential words for stance classification using BERT-based models. Unlike related work, we develop a broader level of interpretability focused on the overall model behavior instead of single instances. We aggregate tokens’ attentions into words’ attention weights that are more meaningful and can be semantically related to the domain. We propose attention metrics to assess words’ influence in the correct classification of stances. We use three case studies related to COVID-19 to assess the proposed framework in a broad experimental setting encompassing six datasets and four BERT pre-trained models for Portuguese and English languages, resulting in sixteen stance classification models. Through establishing five different research questions, we obtained valuable insights on the usefulness of attention weights to interpret stance classification that allowed us to generalize our findings. Our results are independent of a particular pre-trained BERT model and comparable to those obtained using an alternative baseline method. High attention scores improve the probability of finding words that positively impact the model performance and influence the correct classification (up to 82% of identified influential words contribute to correct predictions). The influential words represent the domain and can be used to identify how the model leverages the arguments expressed to predict a stance.BERT ofrece soluciones líderes en tareas de procesamiento de lenguaje natural, pero carece de interpretabilidad. Para abordar esto, presentamos un marco de interpretabilidad basado en atención para la clasificación de polarización usando modelos BERT. A diferencia de otros trabajos, nos enfocamos en comprender el comportamiento general del modelo en lugar de instancias individuales, agregando las atenciones de tokens en pesos de atención de palabras más significativos. Evaluamos nuestro enfoque en seis conjuntos de datos y cuatro modelos BERT pre-entrenados para portugués e inglés, generando dieciséis modelos de clasificación de posturas. Mediante cinco preguntas de investigación, obtenemos información valiosa sobre la utilidad de los pesos de atención para interpretar la clasificación de polarización, independientemente del modelo BERT específico. Nuestros resultados son comparables con métodos alternativos y muestran que altas puntuaciones de atención mejoran la predicción correcta, con hasta el 82% de palabras influyentes identificadas contribuyendo a predicciones correctas, lo que permite entender cómo el modelo utiliza los argumentos para predecir un grupo polarizado.Brasil. Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)Tesisapplication/pdfengUniversidade Federal do Rio Grande do SulBRinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/deed.esSuperintendencia Nacional de Educación Superior Universitaria - SUNEDURegistro Nacional de Trabajos de Investigación - RENATIreponame:Registro Nacional de Trabajos conducentes a Grados y Títulos - RENATIinstname:Superintendencia Nacional de Educación Superior Universitariainstacron:SUNEDURepresentaciones de codificador bidireccional de transformadoresProcesamiento en lenguaje natural (Informática)Interpretabilidad (Inteligencia artificial)COVID-19 (Enfermedad) - Aspectos políticosPolarización políticahttps://purl.org/pe-repo/ocde/ford#1.02.01Understanding stance classification of BERT models: an attention-based mechanismComprendiendo la clasificación de grupos polarizados usando BERT: un mecanismo basado en atencióninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do Sul. Instituto de InformáticaCiencias de la ComputaciónMaestro en Ciencias de la Computaciónhttp://purl.org/pe-repo/renati/level#maestrohttps://orcid.org/0000-0003-4967-102770991154http://purl.org/pe-repo/renati/type#tesisORIGINALCordovaSaenzCA.pdfCordovaSaenzCA.pdfTesisapplication/pdf6465687https://renati.sunedu.gob.pe/bitstream/renati/9260/1/CordovaSaenzCA.pdf91cb943b35bb858ff1612db8a0b801edMD51Autorizacion.pdfAutorizacion.pdfAutorización del registroapplication/pdf192333https://renati.sunedu.gob.pe/bitstream/renati/9260/2/Autorizacion.pdfb9e78661e5c012827aacd3eda19d5c64MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-8956https://renati.sunedu.gob.pe/bitstream/renati/9260/3/license.txtb39fb1e1cb23db8e93fd74de238cfcd9MD53renati/9260oai:renati.sunedu.gob.pe:renati/92602024-06-26 12:38:44.962Registro Nacional de Trabajos de Investigaciónrenati@sunedu.gob.peTGFzIHVuaXZlcnNpZGFkZXMsIGluc3RpdHVjaW9uZXMgeSBlc2N1ZWxhcyBkZSBlZHVjYWNpw7NuIHN1cGVyaW9yIHRpZW5lbiBjb21vIG9ibGlnYWNpw7NuIHJlZ2lzdHJhciB5IGRlcG9zaXRhciB0b2RvcyBsb3MgdHJhYmFqb3MgY29uZHVjZW50ZXMgYSBncmFkb3MgeSB0w610dWxvcywgaW5jbHV5ZW5kbyBsb3MgbWV0YWRhdG9zIGVuIHN1cyByZXBvc2l0b3Jpb3MgaW5zdGl0dWNpb25hbGVzIHByZWNpc2FuZG8gc2kgc29uIGRlIGFjY2VzbyBhYmllcnRvLCByZXN0cmluZ2lkbywgY29uIHVuIHBlcmlvZG8gZGUgZW1iYXJnbyBvIGNvbiBsYSBjb25kaWNpw7NuIGNlcnJhZGEsIGNvbnRhbmRvIGNvbiBsYSBhdXRvcml6YWNpw7NuIHByZXZpYSB5IHBvciBlc2NyaXRvIGRlIGxvcyBhdXRvcmVzIGRlIGxvcyB0cmFiYWpvcyBwYXJhIHN1IHJlcHJvZHVjY2nDs24geSBjb211bmljYWNpw7NuIHDDumJsaWNhIGNvbiBlbCBmaW4gZGUgZXZpdGFyIGN1YWxxdWllciBhZmVjdGFjacOzbiBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBjb25mb3JtZSBlbCBtYXJjbyBub3JtYXRpdm8gdmlnZW50ZSAoUmVnbGFtZW50byBSRU5BVEksIGFydMOtY3VsbyAxMi4yKS4gCgpMYXMgcGVyc29uYXMgbmF0dXJhbGVzIHF1ZSBzb2xpY2l0YW4gZWwgcmVjb25vY2ltaWVudG8gZGUgdW4gZ3JhZG8geS9vIHTDrXR1bG8gb3RvcmdhZG8gZW4gZWwgZXh0cmFuamVybyBwdWVkZW4gcmVxdWVyaXIgZWwgYWxvamFtaWVudG8gZGVsIHRyYWJham8gcG9yIGVsIGN1YWwgb2J0dXZpZXJvbiBkaWNobyBncmFkbyBvIHTDrXR1bG8gZW4gZWwgUmVjb2xlY3RvciBEaWdpdGFsIFJFTkFUSSwgZW4gY2FzbyBzZSBoYXlhIHV0aWxpemFkbyBlc3RhIG1vZGFsaWRhZCBwYXJhIGxhIG9idGVuY2nDs24gZGVsIGdyYWRvIG8gdMOtdHVsbyByZXNwZWN0aXZvIChSZWdsYW1lbnRvIFJFTkFUSSwgYXJ0w61jdWxvIDE5LjEpLgo=
score 13.905282
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).