Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 46
Riesgos de responsabilidad legal en el uso de chatbots e IA
para asesoría financiera y tributaria en Ecuador
Legal Liability Risks in the Use of Chatbots and Artificial Intelligence
for Financial and Tax Advisory Services
Toledo-Castillo, Norma del Rocío
1
Huera-Paltán, Byron Paúl
2
https://orcid.org/0000-0003-1116-760X
https://orcid.org/0000-0002-1721-2574
norma.toledo@espoch.edu.ec
bhuera@espoch.edu.ec
Ecuador, Riobamba, Escuela Superior Politécnica
del Chimborazo
Ecuador, Riobamba, Escuela Superior Politécnica
del Chimborazo
Lemache-Noriega, Danny Gustavo
3
Oñate-Bastidas, Blanca Alexandra
4
https://orcid.org/0009-0004-3279-9803
https://orcid.org/0000-0003-2377-7616
danny.lemache@espoch.edu.ec
blanca.oniate@espoch.edu.ec
Ecuador, Riobamba, Escuela Superior Politécnica
del Chimborazo
Ecuador, Riobamba, Escuela Superior Politécnica
del Chimborazo
Autor de correspondencia
1
DOI / URL: https://doi.org/10.55813/gaea/jessr/v6/n1/229
Resumen: El uso de chatbots y sistemas de inteligencia
artificial en la asesoría financiera y tributaria se ha
incrementado de manera significativa en los últimos años,
generando beneficios operativos, pero también nuevos
desafíos jurídicos relacionados con la responsabilidad
legal. El presente estudio tiene como propósito analizar de
forma sistemática los riesgos de responsabilidad legal
derivados del uso de estas tecnologías en servicios de
asesoría especializada. La investigación se desarrolló bajo
un enfoque cualitativo, mediante una revisión documental y
un análisis jurídico doctrinario de publicaciones
académicas con identificador digital verificable, centradas
en responsabilidad civil, regulación de la inteligencia
artificial y aplicaciones financieras y tributarias. Los
resultados evidencian que la asesoría automatizada
incrementa los riesgos jurídicos cuando se emplea sin
supervisión humana efectiva, particularmente en
escenarios de daño patrimonial, incumplimiento normativo
y opacidad en la toma de decisiones. Asimismo, se
identificó una fragmentación de la responsabilidad entre
desarrolladores, entidades usuarias y profesionales
supervisores, así como vacíos normativos relevantes en el
contexto latinoamericano y ecuatoriano. Se concluye que
es necesario avanzar hacia modelos regulatorios
específicos que integren principios de transparencia,
supervisión humana y delimitación clara de
responsabilidades, a fin de garantizar la seguridad jurídica
y la protección de los usuarios.
Palabras clave: inteligencia artificial; chatbots;
responsabilidad legal; asesoría financiera; derecho digital.
Research Article
Receptado: 11/Nov/2025
Aceptado: 19/Dic/2025
Publicado: 31/Ene/2026
Cita: Toledo-Castillo, N. del R., Huera-Paltán,
B. P., Lemache-Noriega, D. G., & Oñate-
Bastidas, B. A. (2026). Riesgos de
responsabilidad legal en el uso de chatbots e
IA para asesoría financiera y tributaria en
Ecuador. Journal of Economic and Social
Science Research, 6(1), 46-
58. https://doi.org/10.55813/gaea/jessr/v6/n1/2
29
Journal of Economic and Social Science
Research (JESSR)
https://economicsocialresearch.com
jessr@editorialgrupo-aea.com
info@editoriagrupo-aea.com
Nota del editor: Editorial Grupo AEA se
mantiene neutral con respecto a las
reclamaciones legales resultantes de
contenido publicado. La responsabilidad de
información publicada recae enteramente en
los autores.
© 2026. Este artículo es un documento de
acceso abierto distribuido bajo los términos y
condiciones de la Licencia Creative
Commons, Atribución-NoComercial 4.0
Internacional.
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 47
Artículo Científico
EneroMarzo 2026
Abstract:
The use of chatbots and artificial intelligence systems in financial and tax advisory
services has increased significantly in recent years, offering operational advantages
while raising new legal challenges related to liability. This study aims to systematically
analyze the legal liability risks arising from the use of these technologies in professional
advisory contexts. The research follows a qualitative approach based on a
documentary review and legal doctrinal analysis of academic publications with
verifiable digital identifiers, focusing on civil liability, regulation of artificial intelligence,
and financial and tax applications. The results show that automated advisory services
increase legal risks when implemented without effective human supervision,
particularly in situations involving economic harm, regulatory noncompliance, and lack
of transparency in decision making processes. The findings also reveal a
fragmentation of liability among system developers, implementing entities, and
supervising professionals, as well as significant regulatory gaps in the Latin American
and Ecuadorian context. The discussion highlights that traditional legal frameworks are
insufficient to address the complexity of automated advisory services. The study
concludes that the development of specific regulatory models is required, incorporating
transparency, human oversight, and clear allocation of responsibilities to ensure legal
certainty and user protection.
Keywords: artificial intelligence; chatbots; legal liability; financial advisory; digital law.
1. Introducción
La acelerada incorporación de la inteligencia artificial en distintos ámbitos sociales,
económicos y jurídicos constituye uno de los rasgos más significativos de la
transformación digital contemporánea. Tecnologías como los chatbots, los sistemas
de aprendizaje automático y los algoritmos de decisión automatizada se utilizan de
manera creciente para prestar servicios que tradicionalmente han estado reservados
a profesionales humanos, incluidos aquellos relacionados con la asesoría financiera y
tributaria. Este escenario plantea oportunidades relevantes en términos de eficiencia
y accesibilidad, pero también introduce desafíos jurídicos sustanciales vinculados a la
responsabilidad legal, la protección del usuario y la seguridad jurídica (Cotino, 2018;
Balmaseda, 2021).
Desde una perspectiva macro, el debate académico actual reconoce que la
inteligencia artificial no puede ser entendida únicamente como una herramienta
técnica, sino como un fenómeno que reconfigura las relaciones jurídicas y los
mecanismos clásicos de imputación de responsabilidad. Diversos estudios destacan
que la opacidad algorítmica, la autonomía relativa de los sistemas y la delegación de
funciones decisionales en tecnologías inteligentes generan tensiones con los
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 48
Artículo Científico
EneroMarzo 2026
principios tradicionales del derecho civil y administrativo, particularmente en lo relativo
al deber de diligencia y a la atribución del daño (Casadesus, 2020; Terrones, 2018).
En el plano regulatorio, la literatura evidencia que los ordenamientos jurídicos
enfrentan dificultades para adaptarse a la velocidad del desarrollo tecnológico.
Investigaciones recientes subrayan que los marcos normativos vigentes fueron
diseñados para contextos en los que la toma de decisiones es atribuible a sujetos
claramente identificables, lo que limita su aplicabilidad frente a sistemas de
inteligencia artificial que operan de forma autónoma o semiautónoma (Llamas et al.,
2022; Aguirre, 2022). Esta problemática resulta especialmente relevante en sectores
sensibles como el financiero y tributario, donde los errores de asesoría pueden
generar consecuencias patrimoniales significativas.
Desde un enfoque más específico, la aplicación de la inteligencia artificial en el ámbito
financiero ha sido analizada como un factor de optimización en la toma de decisiones
económicas, la gestión de riesgos y la provisión de servicios de asesoría. Sin
embargo, la literatura también advierte que el uso de estos sistemas amplifica el
impacto de los errores y plantea interrogantes sobre la responsabilidad legal derivada
de decisiones automatizadas (Tejedor, 2024; Páez-Andrade, 2023). En el ámbito
tributario, la automatización de la asesoría introduce riesgos adicionales relacionados
con el cumplimiento normativo y la correcta interpretación de disposiciones fiscales,
especialmente cuando los sistemas operan sin supervisión profesional directa (Coello-
Zavala & Concha-Ramírez, 2025).
En el contexto latinoamericano y ecuatoriano, los estudios disponibles indican que la
adopción de herramientas de inteligencia artificial en el ejercicio profesional avanza a
un ritmo superior al desarrollo normativo que las regula. Investigaciones recientes
evidencian que, si bien existe un uso creciente de tecnologías de IA en la práctica
jurídica y financiera, persisten vacíos regulatorios significativos en materia de
responsabilidad legal y control institucional (Estacio-Larcos et al., 2025). Esta
situación genera un escenario de incertidumbre jurídica que afecta tanto a los usuarios
de servicios automatizados como a los profesionales y entidades que los implementan
(Hurtado-Guevara et al., 2023).
A partir de este contexto, el presente artículo de revisión tiene como propósito analizar
de manera sistemática los riesgos de responsabilidad legal asociados al uso de
chatbots y sistemas de inteligencia artificial en la asesoría financiera y tributaria,
integrando enfoques doctrinarios, normativos y regulatorios. El objetivo principal del
trabajo consiste en identificar los principales riesgos jurídicos, las tipologías de
responsabilidad involucradas y los vacíos normativos existentes, con especial
atención al contexto latinoamericano y ecuatoriano. De este modo, la investigación
busca contribuir al debate académico y ofrecer insumos teóricos relevantes para el
desarrollo de marcos regulatorios que permitan equilibrar la innovación tecnológica
con la seguridad jurídica y la protección de los derechos.
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 49
Artículo Científico
EneroMarzo 2026
2. Materiales y métodos
La investigación se desarrolló bajo un enfoque cualitativo, mediante un diseño de
revisión documental y análisis jurídico-doctrinario, con el propósito de identificar y
analizar los riesgos de responsabilidad legal asociados al uso de chatbots y sistemas
de inteligencia artificial en la asesoría financiera y tributaria. Este enfoque permitió
examinar de manera sistemática los aportes teóricos, normativos y regulatorios
existentes, sin la manipulación de variables, priorizando la interpretación jurídica y el
análisis crítico de la literatura especializada.
El estudio se estructuró como un artículo de revisión narrativa con análisis sistemático,
debido a que el objetivo no fue cuantificar resultados, sino integrar y comparar
enfoques doctrinarios y regulatorios provenientes del derecho civil, el derecho digital,
el derecho financiero y el derecho tributario. Este diseño facilitó la identificación de
patrones conceptuales, vacíos normativos y tendencias emergentes en torno a la
responsabilidad derivada del uso de tecnologías de inteligencia artificial en servicios
de asesoría.
La recopilación de información se realizó entre enero y marzo de 2025, seleccionando
exclusivamente fuentes académicas con DOI verificable, correspondientes a artículos
científicos, libros académicos, editoriales especializadas y capítulos de investigación
publicados entre los años 2007 y 2025. Se priorizaron publicaciones indexadas en
bases de datos académicas reconocidas, así como estudios relevantes para el
contexto latinoamericano y ecuatoriano, en atención a la naturaleza regional del objeto
de estudio.
Los criterios de inclusión consideraron documentos que abordaran de forma directa la
inteligencia artificial, los chatbots, la responsabilidad legal, la asesoría financiera o
tributaria automatizada, así como aquellos que analizaran riesgos jurídicos, marcos
regulatorios o implicaciones éticas de los sistemas automatizados de decisión. Se
excluyeron tesis, informes institucionales, literatura gris, documentos sin DOI
verificable y publicaciones de carácter divulgativo que no contaran con revisión
académica.
La identificación de las fuentes se efectuó mediante búsquedas avanzadas en bases
de datos y repositorios científicos, utilizando combinaciones de palabras clave en
español e inglés relacionadas con inteligencia artificial, responsabilidad civil, asesoría
financiera automatizada, asesoría tributaria digital y derecho digital. Esta estrategia se
complementó con la revisión cruzada de referencias bibliográficas de los estudios
seleccionados, con el fin de garantizar la exhaustividad y coherencia del corpus
documental analizado (Avila-Loor et al., 2025).
El análisis de la información se desarrolló en varias fases. Inicialmente, se realizó una
lectura exploratoria de los documentos para verificar su pertinencia temática.
Posteriormente, se llevó a cabo una lectura analítica en profundidad, a partir de la cual
se identificaron categorías jurídicas relevantes, tales como los tipos de
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 50
Artículo Científico
EneroMarzo 2026
responsabilidad legal, los sujetos potencialmente responsables, los riesgos asociados
al uso de chatbots y los vacíos normativos existentes. Estas categorías permitieron
organizar y sistematizar la información de manera coherente.
A continuación, las fuentes fueron clasificadas por ejes temáticos, diferenciando
aquellas centradas en la responsabilidad civil y algorítmica, la regulación de la
inteligencia artificial, las aplicaciones de la IA en el ámbito financiero y tributario, y los
estudios orientados al contexto latinoamericano. Finalmente, se efectuó un análisis
comparado e integrador, contrastando los distintos enfoques doctrinarios y
regulatorios con el propósito de identificar convergencias, divergencias y tendencias
comunes.
Como técnica principal se empleó el análisis documental cualitativo, aplicado a textos
jurídicos y académicos. La información fue organizada mediante una matriz de
revisión temática, en la que se sistematizaron los principales aportes de cada estudio
en función de su enfoque, objeto de análisis y hallazgos relevantes. Este
procedimiento permitió asegurar la trazabilidad del análisis y facilitar la replicabilidad
del estudio por parte de otros investigadores.
Con el objetivo de garantizar la reproducibilidad de la investigación, se utilizaron
únicamente fuentes académicas de acceso público con DOI verificable, y se
describieron de forma detallada los criterios de selección, las estrategias de búsqueda
y los procedimientos de análisis. De este modo, el estudio dejó disponibles todos los
elementos metodológicos necesarios para que otros investigadores puedan replicar,
ampliar o contrastar los resultados obtenidos.
3. Resultados
El análisis de las fuentes seleccionadas permitió identificar patrones consistentes
sobre los riesgos de responsabilidad legal derivados del uso de chatbots y sistemas
de inteligencia artificial en la asesoría financiera y tributaria, así como vacíos
normativos y desafíos regulatorios relevantes. Los resultados respondieron al objetivo
del estudio al evidenciar que la automatización de procesos tradicionalmente
reservados a profesionales humanos generó una reconfiguración de los esquemas
clásicos de responsabilidad jurídica.
Con el fin de sistematizar los principales aportes de las investigaciones revisadas, se
elaboró una tabla de síntesis que resume los enfoques, áreas de análisis y principales
hallazgos de las fuentes incluidas en el estudio (véase Tabla 1).
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 51
Artículo Científico
EneroMarzo 2026
Tabla 1
Síntesis de estudios revisados sobre inteligencia artificial y responsabilidad legal en
asesoría financiera y tributaria
Año
Enfoque
Área
Aporte principal
2021
Doctrinal
Responsabilidad civil
Riesgos jurídicos de IA
2022
Normativo
Regulación IA
Enfoques regulatorios
2024
Analítico
Economía e IA
Uso de IA en finanzas
2020
Jurídico
Responsabilidad civil
Retos legislativos
2022
Teórico
Responsabilidad algorítmica
Transparencia y control
2025
Empírico
Ecuador
IA y ejercicio profesional
Nota: (Autores, 2026).
3.1. Riesgos jurídicos asociados a la asesoría financiera y tributaria
automatizada
Los resultados mostraron que el uso de chatbots y sistemas de inteligencia artificial
en la asesoría financiera y tributaria incrementó los riesgos jurídicos, especialmente
cuando dichas herramientas fueron utilizadas para emitir recomendaciones sin
supervisión humana directa. La literatura revisada coincidió en que la automatización
de la asesoría amplificó el riesgo de generación de información inexacta, incompleta
o desactualizada, lo cual podía derivar en perjuicios económicos y fiscales para los
usuarios (Coello-Zavala & Concha-Ramírez, 2025; Tejedor, 2024).
Asimismo, se evidenció que la opacidad inherente a muchos sistemas algorítmicos
dificultó la comprensión del proceso de toma de decisiones, limitando la capacidad del
usuario para evaluar la validez de las recomendaciones recibidas. Esta falta de
transparencia fue identificada como un elemento central en la configuración del riesgo
jurídico, al obstaculizar la trazabilidad de los errores y la determinación de
responsabilidades (Aguirre, 2022; Cotino, 2018).
3.2. Tipologías de responsabilidad legal identificadas
El análisis permitió constatar que la responsabilidad civil fue la categoría predominante
en los estudios revisados, particularmente en escenarios donde la asesoría
automatizada generó daños patrimoniales derivados de decisiones financieras o
tributarias erróneas (Herrera Sánchez et al., 2021). Se observó que esta
responsabilidad se sustentó en criterios tradicionales como la negligencia, el
incumplimiento del deber de diligencia y la falta de control adecuado sobre los
sistemas de inteligencia artificial (Casadesus, 2020; Aguirre, 2024).
De manera complementaria, los resultados evidenciaron la existencia de
responsabilidad administrativa, vinculada al incumplimiento de normativas financieras,
tributarias y de protección al consumidor, especialmente cuando las plataformas
digitales operaron sin ajustarse a los marcos regulatorios vigentes. Asimismo, se
identificaron supuestos de responsabilidad profesional, atribuibles a asesores
humanos que delegaron funciones críticas en sistemas automatizados sin ejercer una
supervisión efectiva (Balmaseda, 2021; Fernández, 2019).
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 52
Artículo Científico
EneroMarzo 2026
3.3. Sujetos potencialmente responsables en el uso de chatbots e IA
Los resultados mostraron que la determinación del sujeto responsable constituyó uno
de los principales desafíos jurídicos analizados. La revisión evidenció que la
responsabilidad no recayó exclusivamente en un único actor, sino que se distribuyó
entre diversos sujetos involucrados en el diseño, implementación y utilización de los
sistemas de inteligencia artificial (García, 2023; Aguirre, 2022).
En este sentido, los estudios identificaron como sujetos potencialmente responsables
a los desarrolladores de los sistemas de IA, las entidades financieras o tributarias que
implementaron chatbots, y los profesionales que avalaron su uso en contextos de
asesoría especializada. Esta configuración de responsabilidad compartida fue
interpretada como una limitación de los modelos tradicionales de imputación jurídica,
diseñados para relaciones bilaterales y no para entornos tecnológicos complejos
(Casadesus, 2020; Terrones, 2018).
3.4. Vacíos normativos y limitaciones regulatorias
El análisis permitió identificar vacíos normativos relevantes en la regulación del uso
de chatbots y sistemas de inteligencia artificial en la asesoría financiera y tributaria,
especialmente en el contexto latinoamericano (Concha-Ramirez & Navarrete-Ortiz,
2023). Se evidenció que la mayoría de los ordenamientos jurídicos analizados no
contemplaron de forma expresa la responsabilidad derivada de decisiones
automatizadas, lo que dificultó la aplicación de las normas tradicionales de
responsabilidad civil y administrativa (Llamas et al., 2022; Estacio-Larcos et al., 2025).
Asimismo, los resultados mostraron una ausencia de disposiciones específicas sobre
transparencia algorítmica, explicabilidad de los sistemas de inteligencia artificial y
exigencias de supervisión humana obligatoria (Bayas-Gavidia et al., 2025). Estas
limitaciones regulatorias fueron identificadas como factores que incrementaron la
inseguridad jurídica tanto para los usuarios como para los prestadores de servicios de
asesoría automatizada (Azuaje & Ordelin, 2024; Osorio, 2022).
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 53
Artículo Científico
EneroMarzo 2026
Figura 1
Riesgos y responsabilidades legales asociados al uso de chatbots e inteligencia
artificial en asesoría financiera y tributaria
Nota: (Autores, 2026).
4. Discusión
Los resultados del estudio confirman que el uso de chatbots y sistemas de inteligencia
artificial en la asesoría financiera y tributaria plantea desafíos jurídicos sustantivos que
tensionan los esquemas tradicionales de responsabilidad legal. En concordancia con
los planteamientos doctrinarios previos, la automatización de funciones propias de la
asesoría profesional introduce riesgos que no pueden ser abordados adecuadamente
mediante una aplicación mecánica de las normas clásicas de responsabilidad civil y
administrativa (Balmaseda, 2021; Casadesus, 2020). En este sentido, los hallazgos
refuerzan la idea de que la inteligencia artificial no constituye un mero instrumento
técnico, sino un agente que reconfigura las relaciones jurídicas y las formas de
imputación del daño.
Desde la perspectiva del análisis normativo, los resultados dialogan con los enfoques
regulatorios identificados en la literatura, los cuales advierten que los marcos jurídicos
vigentes fueron diseñados para escenarios en los que la toma de decisiones recae
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 54
Artículo Científico
EneroMarzo 2026
exclusivamente en personas naturales o jurídicas claramente identificables (Llamas et
al., 2022). La evidencia analizada muestra que, cuando la asesoría financiera o
tributaria es mediada por sistemas algorítmicos, se produce una fragmentación de la
responsabilidad entre desarrolladores, entidades usuarias y profesionales
supervisores, situación que coincide con los planteamientos sobre responsabilidad
algorítmica y gobernanza de la inteligencia artificial expuestos por Aguirre (2022).
Asimismo, los resultados pueden interpretarse a la luz de los estudios que analizan el
impacto de la inteligencia artificial en los procesos de decisión económica. La literatura
señala que el uso de IA en contextos financieros incrementa la eficiencia y la
capacidad analítica, pero también amplifica el impacto de los errores cuando estos
ocurren, dado el alcance masivo y la velocidad de los sistemas automatizados
(Tejedor, 2024; Páez-Andrade, 2023). En este sentido, los hallazgos del presente
estudio confirman que los errores algorítmicos en asesoría tributaria o financiera no
solo generan consecuencias técnicas, sino también efectos jurídicos relevantes,
especialmente en términos de daño patrimonial y sanciones administrativas.
En relación con el contexto latinoamericano y ecuatoriano, los resultados coinciden
con investigaciones recientes que evidencian un desarrollo normativo incipiente frente
al uso de inteligencia artificial en el ejercicio profesional. Estudios centrados en el
ámbito jurídico ecuatoriano destacan que la adopción acelerada de herramientas de
IA no ha sido acompañada de regulaciones específicas que delimiten
responsabilidades y obligaciones claras para los distintos actores involucrados
(Estacio-Larcos et al., 2025). Esta situación refuerza la interpretación de que los
vacíos normativos identificados en los resultados no constituyen casos aislados, sino
una característica estructural de los ordenamientos jurídicos de la región.
Desde una perspectiva comparada, los hallazgos dialogan con los estudios que
analizan la evolución de la regulación europea en materia de responsabilidad
vinculada a sistemas de inteligencia artificial. La literatura muestra que, en dichos
contextos, se avanza hacia modelos normativos que incorporan principios como la
supervisión humana obligatoria, la evaluación previa de riesgos y la asignación
diferenciada de responsabilidades (Núñez, 2021). En contraste, el análisis evidencia
que en América Latina persiste una dependencia de marcos normativos generales, lo
que limita la capacidad de respuesta jurídica frente a los riesgos específicos de la
asesoría automatizada.
El alcance de los resultados se circunscribe al análisis documental y doctrinario de
fuentes académicas con DOI verificable, lo que permite una interpretación sólida
desde el punto de vista jurídico, pero limita la posibilidad de generalizar empíricamente
los hallazgos a todos los contextos de aplicación de la inteligencia artificial. En este
sentido, una de las principales limitaciones del estudio radica en la ausencia de
análisis de casos prácticos o jurisprudenciales específicos en materia de asesoría
financiera y tributaria automatizada, especialmente en el contexto ecuatoriano, donde
aún no se registran precedentes judiciales consolidados sobre esta problemática.
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 55
Artículo Científico
EneroMarzo 2026
No obstante, los resultados aportan implicaciones relevantes para la formulación de
políticas públicas y marcos regulatorios, al evidenciar la necesidad de transitar hacia
esquemas normativos que reconozcan explícitamente la responsabilidad derivada del
uso de sistemas de inteligencia artificial. En línea con los planteamientos sobre ética,
deliberación y prudencia en el diseño y uso de la IA, se refuerza la importancia de
incorporar criterios de supervisión humana, transparencia algorítmica y deber de
diligencia reforzado en los servicios de asesoría automatizada (Terrones, 2018;
Azuaje & Ordelin, 2024).
5. Conclusiones
El presente estudio concluye que el uso de chatbots y sistemas de inteligencia artificial
en la asesoría financiera y tributaria introduce una transformación sustantiva en los
esquemas tradicionales de responsabilidad legal. La automatización de procesos
decisionales, que históricamente han estado reservados a profesionales humanos,
genera un escenario jurídico caracterizado por una mayor complejidad en la
imputación del daño y por una ampliación de los riesgos asociados al ejercicio de la
asesoría especializada. En este sentido, el objetivo de identificar los principales
riesgos jurídicos derivados del uso de inteligencia artificial en estos ámbitos se
considera alcanzado.
A partir del análisis realizado, se establece que los riesgos legales no se limitan a
fallos técnicos o errores de programación, sino que se proyectan hacia dimensiones
estructurales del derecho, tales como la diligencia profesional, la transparencia de la
información y la protección del usuario. La investigación demuestra que la ausencia
de supervisión humana efectiva y la opacidad de los sistemas algorítmicos constituyen
factores determinantes en la configuración de la responsabilidad legal, lo que confirma
la necesidad de repensar los estándares jurídicos aplicables a la asesoría
automatizada.
Asimismo, el estudio evidencia que la responsabilidad legal derivada del uso de
chatbots en asesoría financiera y tributaria tiende a distribuirse entre múltiples actores,
incluyendo desarrolladores tecnológicos, entidades que implementan estas
herramientas y profesionales que avalan su utilización. Este hallazgo permite afirmar
que los modelos clásicos de responsabilidad individual resultan insuficientes para
abordar escenarios en los que la toma de decisiones se encuentra mediada por
sistemas de inteligencia artificial, lo que cumple con el objetivo de analizar los sujetos
potencialmente responsables en este tipo de servicios.
En el plano normativo, la investigación concluye que los marcos jurídicos vigentes,
particularmente en el contexto latinoamericano y ecuatoriano, presentan limitaciones
significativas para regular de forma adecuada la asesoría automatizada. La falta de
disposiciones específicas sobre responsabilidad algorítmica, transparencia y
supervisión humana incrementa la inseguridad jurídica y expone tanto a los usuarios
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 56
Artículo Científico
EneroMarzo 2026
como a los prestadores de servicios a riesgos legales no previstos. De este modo, se
demuestra el objetivo de identificar vacíos normativos relevantes en la regulación del
uso de inteligencia artificial en la asesoría financiera y tributaria.
El principal aporte de esta investigación a la ciencia jurídica radica en la
sistematización y análisis crítico de un cuerpo teórico y normativo disperso, integrando
perspectivas del derecho civil, el derecho digital y la regulación financiera para ofrecer
una comprensión articulada de la responsabilidad legal en contextos de inteligencia
artificial. El estudio contribuye a ampliar el debate académico al proponer una lectura
que trasciende la visión instrumental de la IA y la sitúa como un fenómeno jurídico que
exige nuevas categorías de análisis y regulación.
CONFLICTO DE INTERESES
“Los autores declaran no tener ningún conflicto de intereses”.
Referencias Bibliográficas
Aguirre Rodríguez, P. (2024). La responsabilidad civil en la inteligencia artificial.
Anuario de la Facultad de Derecho de la Universidad de Alcalá, 17, 243263.
https://doi.org/10.14679/3906
Aguirre Sala, J. F. (2022). Especificando la responsabilidad algorítmica. Teknokultura.
Revista de Cultura Digital y Movimientos Sociales, 19(2), 265–275.
https://doi.org/10.5209/tekn.79692
Avila-Loor, L. P., Lara-Castillo, E. C., Calvache-Montesdeoca, R. A., & Zamora-
Mayorga, D. J. (2025). Impacto de los incentivos fiscales en el desarrollo de las
PYMES en la ciudad de Quevedo. Revista Científica Ciencia Y Método, 3(3),
213-228. https://doi.org/10.55813/gaea/rcym/v3/n3/68
Azuaje Pirela, M., & Ordelin Font, J. L. (2024). Derecho e inteligencia
artificial. Justicia, 29(45). https://doi.org/10.17081/just.29.45.7313
Bayas-Gavidia, A. C., Vera-Velez, L. R., Díaz-Córdova, P. E., & Medina-Armas, A. T.
(2025). Cumplimiento de las obligaciones tributarias y su efecto en la toma de
decisiones de las microempresas comerciales. Journal of Economic and Social
Science Research, 5(3), 1-14. https://doi.org/10.55813/gaea/jessr/v5/n3/205
Braña, J. P., Litterio, A., & Fernández, A. (2020). Inteligencia artificial y computación
cuántica en finanzas. En XXII Workshop de Investigadores en Ciencias de la
Computación (WICC 2020) (pp. 17–20). Universidad Nacional de La Plata.
https://hdl.handle.net/10915/127165
Casadesus Ripoll, P. (2020). Inteligencia artificial y responsabilidad civil: perspectivas
jurídicas y retos legislativos. Revista de la Facultad de Derecho de México,
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 57
Artículo Científico
EneroMarzo 2026
70(278-1), 353–374. https://doi.org/10.22201/fder.24488933e.2020.278-
1.77358
Coello-Zavala, N. J., & Concha-Ramírez, J. A. (2025). Análisis de la incidencia de la
IA aplicada en el asesoramiento financiero y tributario de 2020–2024. Journal
of Economic and Social Science Research, 5(1), 245–264.
https://doi.org/10.55813/gaea/jessr/v5/n1/175
Concha-Ramirez, J. A., & Navarrete-Ortiz, J. del C. (2023). Ética empresarial y
responsabilidad social en la inteligencia artificial. Revista Científica Ciencia Y
Método, 1(3), 31-44. https://doi.org/10.55813/gaea/rcym/v1/n3/18
Cotino Hueso, L. (2019). Riesgos e impactos del Big Data, la inteligencia artificial y la
robótica: enfoques, modelos y principios de la respuesta del derecho. Revista
General de Derecho Administrativo, (50).
https://www.iustel.com/v2/revistas/detalle_revista.asp?id_noticia=421227
Estacio-Larcos, M. P., & Concha-Ramírez, J. A. (2025). Análisis de las empresas
fantasmas y su impacto en la recaudación tributaria en el Caso Marin . Journal
of Economic and Social Science Research, 5(1), 284–305.
https://doi.org/10.55813/gaea/jessr/v5/n1/177
Fernández, A. (2019). Inteligencia artificial en los servicios financieros. Boletín
Económico (2/2019), Artículos Analíticos. Banco de España.
https://www.bde.es/f/webbde/SES/Secciones/Publicaciones/InformesBoletines
Revistas/ArticulosAnaliticos/19/T2/descargar/Fich/be1902-art7.pdf
García, E. de L. (2023). Justicia, inteligencia artificial y derecho de defensa. IDP.
Revista de Internet, Derecho y Política, (39).
https://doi.org/10.7238/idp.v0i39.417164
García, R. A. R. (2021). Finanzas internacionales. Catálogo Editorial.
https://doi.org/10.15765/POLI.V1I2.2094
Guamanquispe, T. A., & Medina, R. P. (2025). Chatbot sobre riesgo de crédito:
Enfoque experimental para optimización en cooperativas de ahorro y crédito.
Espacios, 46(4). https://doi.org/10.48082/espacios-a25v46n04p02
Herrera Sánchez, M. J., Casanova Villalba, C. I., Silva Alvarado, G. S. ., & Parraga
Pether, P. V. (2021). Cultura tributaria mediante la capacitación contable a
pequeñas y medianas empresas en Ecuador. Journal of business and
entrepreneurial studie.
Hurtado-Guevara, R. F., Almeida-Blacio, J. H., & López-Pérez, P. J. (2023). Desafíos
éticos en la adopción de tecnologías emergentes en contabilidad. Revista
Científica Ciencia Y Método, 1(2), 29-42.
https://doi.org/10.55813/gaea/rcym/v1/n2/13
Llamas Covarrubias, J. Z., Mendoza Enríquez, O. A., & Graff Guerrero, M. (2022).
Enfoques regulatorios para la inteligencia artificial (IA). Revista chilena de
derecho, 49(3), 31–62. https://doi.org/10.7764/R.493.2
Mansilla-Obando, K., Guiñez-Cabrera, N., & Jeldes-Delgado, F. (2022). Cuando la
comunidad es invisible: responsabilidad social empresarial en la industria
minera. Letras Verdes. Revista Latinoamericana de Estudios
Journal of Economic and Social Science Research | Vol. 06 | Num. 01 | EneMar | 2026 pág. 58
Artículo Científico
EneroMarzo 2026
Socioambientales, (31), 77–94.
https://doi.org/10.17141/letrasverdes.31.2022.5082
Monje Balmaseda, Ó. (2021). Responsabilidad civil, robótica e inteligencia artificial.
En F. Lledó Yagüe, I. F. Benítez Ortúzar, & Ó. Monje Balmaseda (Dirs.), La
robótica y la inteligencia artificial en la nueva era de la revolución industrial 4.0:
Los desafíos jurídicos, éticos y tecnológicos de los robots inteligentes (pp. 239–
262). Dykinson. https://doi.org/10.2307/j.ctv20hct36.9
Núñez Zorrilla, M. C. (2021). Los nuevos avances en la regulación europea de la
responsabilidad civil por los daños ocasionados en el ámbito del transporte con
inteligencia artificial. Revista Española de Derecho Europeo, 78–79, 201255.
https://doi.org/10.37417/REDE/num78-79_2021_636
Osorio Umaña, F. (2022). Inteligencia artificial y derecho de autor: un estudio sobre la
regulación británica. Revista Justicia & Derecho, 5(1).
https://doi.org/10.32457/rjyd.v5i1.1833
Páez-Andrade, R. A. (2023). Impacto de la Inteligencia Artificial en la toma de
decisiones financieras corporativas. Revista Ingenio Global, 2(1), 46-
54. https://doi.org/10.62943/rig.v2n1.2023.61
Tejedor Estupiñán, J. M. (2024). Inteligencia artificial para la investigación económica.
Revista Finanzas y Política Económica, 16(1), 9–16.
https://doi.org/10.14718/revfinanzpolitecon.v16.n1.2024.1
Terrones Rodríguez, A. L. (2018). Deliberación, responsabilidad y prudencia:
fundamentos para construir una ética aplicada a la inteligencia artificial. Revista
Estudios, (36), 349–364. https://doi.org/10.15517/re.v0i36.33492