SSRN Generative AI Special Topic Hub

Centro de temas especiales de IA generativa

El SSRN Generative AI Special Topic Hub ofrece una visión curada de la nueva investigación en etapa inicial que aborda la inteligencia artificial generativa (IA), sus aplicaciones potenciales en campos tan variados como la tecnología de búsqueda, el derecho, las finanzas y la educación, y conversaciones en evolución sobre el uso ético de estas tecnologías. Con plataformas computarizadas cada vez más sofisticadas que producen resultados más similares a los humanos, los investigadores en muchas disciplinas están debatiendo el papel de los chatbots de modelo de lenguaje grande (LLM) de IA, como los transformadores preentrenados generativos (GPT) como ChatGPT, Google Bard y Microsoft Bing y Copilot en el conocimiento. trabajo e investigación científica. Los puntos principales de la discusión giran en torno a la propiedad de la salida de los sistemas, así como los usos legítimos de estas tecnologías y la necesidad de identificar pautas para evitar el mal uso. Este centro presenta información seleccionada de muchas disciplinas que pueden informar la conversación en curso sobre GPT, chatbots de IA y aplicaciones relacionadas.

SSRN Generative AI Special Topic Hub

SSRN, la plataforma de preimpresión líder en el mundo de Elsevier dedicada a la rápida difusión mundial de la investigación en etapa inicial, está comprometida con el avance del progreso social a través del conocimiento y la educación de calidad. La investigación sobre SSRN se puede descargar y cargar de forma gratuita.

Es importante tener en cuenta que muchos de estos artículos no han sido editados ni se han beneficiado del papel fundamental de la revisión por pares, que valida y mejora la calidad de los artículos finales publicados en revistas.

20.12.2023

Auditoría de estados financieros generados por IA

Liberar el potencial de la inteligencia artificial (IA) ha revolucionado numerosas industrias, y el mundo de las finanzas no es una excepción. A medida que las empresas se esfuerzan por optimizar sus procesos y obtener una ventaja competitiva, los estados financieros generados por IA se han convertido en un punto de inflexión. Estos sistemas automatizados pueden generar rápidamente informes precisos, ahorrando a los auditores tiempo y esfuerzo valiosos. Sin embargo, esta increíble innovación conlleva desafíos únicos para los auditores que deben garantizar la precisión y el cumplimiento en un panorama en constante evolución. En este artículo, exploraremos estos desafíos y brindaremos pautas esenciales para los auditores que auditan estados financieros generados por IA. ¡Ahora profundizaremos en el fascinante mundo donde la tecnología de vanguardia se encuentra con un escrutinio meticuloso!

Los estados financieros generados por IA son producto de la creciente integración de la inteligencia artificial en diversas industrias, incluidas las financieras. Estos estados de cuenta se crean utilizando algoritmos y técnicas de aprendizaje automático para analizar grandes cantidades de datos y generar informes financieros precisos.

Palabras clave: auditoría, estados financieros, IA, inteligencia artificial

James, Modupe, Auditing AI-Generated Financial Statements (August 30, 2023). Available at SSRN: https://ssrn.com/abstract=4628260 or http://dx.doi.org/10.2139/ssrn.4628260

08.12.2023

El desafío de utilizar LLM para simular el comportamiento humano: una perspectiva de inferencia causal

Los grandes modelos de lenguajes (Large Language Model, LLM) han demostrado un potencial impresionante para simular el comportamiento humano. Utilizando un marco de inferencia causal, analizamos empírica y teóricamente los desafíos de realizar experimentos simulados con LLM y exploramos posibles soluciones. En el contexto de la estimación de la demanda, mostramos que las variaciones en el tratamiento incluido en el mensaje (por ejemplo, el precio del producto focal) pueden causar variaciones en factores de confusión no especificados (por ejemplo, el precio de los competidores, los precios históricos, la temperatura exterior), introduciendo endogeneidad y produciendo curvas de demanda inverosímilmente planas. Proponemos un marco teórico que sugiere que este problema de endogeneidad se generaliza a otros contextos y no se resolverá por completo simplemente mejorando los datos de entrenamiento. A diferencia de los experimentos reales en los que los investigadores asignan unidades preexistentes entre condiciones, los LLM simulan unidades basándose en el mensaje completo, que incluye la descripción del tratamiento. Por lo tanto, debido a las asociaciones en los datos de entrenamiento, las características de los individuos y los entornos simulados por el LLM pueden verse afectados por la asignación del tratamiento. Exploramos dos posibles soluciones. El primero especifica todas las variables contextuales que afectan tanto el tratamiento como el resultado, lo que demostramos que es un desafío para un LLM de propósito general. El segundo especifica explícitamente la fuente de la variación del tratamiento en la indicación (prompt) dada al LLM (por ejemplo, informando al LLM que la tienda está realizando un experimento). Si bien este enfoque sólo permite la estimación de un efecto de tratamiento promedio condicional que depende del diseño experimental específico, proporciona resultados direccionales valiosos para el análisis exploratorio.

Palabras clave: LLM, GPT, inferencia causal, simulación del comportamiento humano, endogeneidad

Gui, George and Toubia, Olivier, The Challenge of Using LLMs to Simulate Human Behavior: A Causal Inference Perspective (December 1, 2023). Available at SSRN: https://ssrn.com/abstract=4650172 or http://dx.doi.org/10.2139/ssrn.4650172

30.11.2023

Co-creación del futuro con IA generativa: exploración de las capacidades de la IA y su posible incorporación en la educación estadística

Este artículo contribuye al campo de la educación en ciencias estadísticas al revisar estrategias para incorporar IA generativa (GenAI) y evaluar su idoneidad en diversos contextos educativos. El enfoque de co-creación propuesto enfatiza los esfuerzos de colaboración entre educadores y estudiantes. el estudio evalúa seis estrategias generales para lidiar con GenAI, presenta estrategias de evaluación y enseñanza y explora las funciones de GenAI para los estudiantes. las evaluaciones prácticas que utilizan herramientas GenAI (ChatGPT y Claude) informan resúmenes críticos de las ventajas y desventajas de las tareas estadísticas. La sección tres evalúa la idoneidad de las estrategias, destacando las evaluaciones por etapas y orientadas a procesos, las evaluaciones grupales y otras como altamente o parcialmente adecuadas. Se considera que GenAI es más adecuado como mentor para los estudiantes, parcialmente adecuado como tutor y compañero de equipo, e inadecuado para funciones como la evaluación oral o la generación de pruebas de orden superior. La investigación subraya la necesidad de una participación integral tanto de educadores como de estudiantes para la integración efectiva de GenAI en la educación estadística. Los hallazgos brindan información valiosa para instituciones y estudiantes, enfatizando la importancia de estructurar regulaciones y políticas.

Palabras clave: IA generativa, ChatGPT, ciencia estadística, educación

Han, Fengyuan and Ma, Yun, Co-Creating the Future with Generative Ai: Exploring Ai’s Capacities and Potential Incorporation in Statistical Education (November 19, 2023). Available at SSRN: https://ssrn.com/abstract=4637265 or http://dx.doi.org/10.2139/ssrn.4637265

25.11.2023

¿Debería ChatGPT ser sesgado? Desafíos y riesgos de sesto en modelos de lenguaje grandes

A medida que los modelos de lenguaje generativo, ejemplificados por ChatGPT, continúan avanzando en sus capacidades, se intensifica la atención sobre los sesgos inherentes a estos modelos. Este artículo profundiza en los desafíos y riesgos distintivos asociados con los sesgos específicamente en modelos de lenguaje a gran escala. Exploramos los orígenes de los sesgos, que surgen de factores como datos de entrenamiento, especificaciones de modelos, restricciones algorítmicas, diseño de productos y decisiones políticas. Nuestro examen se extiende a las implicaciones éticas que surgen de las consecuencias no deseadas de los resultados sesgados del modelo. Además, analizamos las complejidades de mitigar los sesgos, reconociendo la inevitable persistencia de algunos sesgos y consideramos las consecuencias de implementar estos modelos en diversas aplicaciones, incluidos asistentes virtuales, generación de contenido y chatbots. Finalmente, brindamos una descripción general de los enfoques actuales para identificar, cuantificar y mitigar los sesgos en los modelos de lenguaje, subrayando la necesidad de un esfuerzo colaborativo y multidisciplinario para crear sistemas de IA que incorporen equidad, transparencia y responsabilidad. Este artículo tiene como objetivo catalizar un discurso reflexivo dentro de la comunidad de IA, incitando a investigadores y desarrolladores a considerar el papel único de los sesgos en el dominio de los modelos de lenguaje generativo y la búsqueda constante de una IA ética.

Ferrara, Emilio, Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models (October 26, 2023). Available at SSRN: https://ssrn.com/abstract=4614228 or http://dx.doi.org/10.2139/ssrn.4614228

20.11.2023

El especialista en ética de la IA: ¿realidad o ficción?

Este estudio investiga la eficacia de un asesor ético basado en IA utilizando el modelo GPT-4. A partir de un conjunto de dilemas éticos publicados en la columna “The Ethicist” del New York Times, comparamos los consejos éticos dados por el experto humano y autor de la columna, el Dr. Kwame Anthony Appiah, con los consejos generados por IA. La comparación se realiza evaluando la utilidad percibida del asesoramiento ético en tres grupos distintos: sujetos aleatorios reclutados en una plataforma en línea, estudiantes de MBA de Wharton y un panel de expertos en toma de decisiones éticas compuesto por académicos y clérigos. Nuestros hallazgos no revelaron diferencias significativas en el valor percibido del asesoramiento entre el asesoramiento ético generado por humanos y el asesoramiento ético generado por IA. Cuando se vieron obligados a elegir entre las dos fuentes de asesoramiento, los sujetos aleatorios reclutados en línea mostraron una preferencia leve pero significativa por el asesoramiento generado por IA, seleccionándolo el 60% de las veces, mientras que los estudiantes de MBA y el panel de expertos no mostraron una preferencia significativa.

Palabras clave: ética, asesoramiento ético, dilemas éticos, especialista en ética, LLM, modelos de lenguaje a gran escala, IA, inteligencia artificial, ChatGPT

Terwiesch, Christian and Meincke, Lennart, The AI Ethicist: Fact or Fiction? (October 11, 2023). Available at SSRN: https://ssrn.com/abstract=4609825 or http://dx.doi.org/10.2139/ssrn.4609825

18.10.2023

Inteligencia artificial: ¿qué es y cómo se aplica a las finanzas?

La inteligencia artificial (IA) está cada vez más arraigada en la economía y en nuestra vida daría. En el sistema financiero, se ha utilizado cada vez más para reducir costes y desarrollar nuevos productos y servicios. Por lo tanto, es importante comprender los conceptos detrás de la IA, sus aplicaciones actuales y las que se espera que existan en el futuro. En este informe, explicamos los principales conceptos relacionados con la IA para proporcionar una buena comprensión de cómo funciona la tecnología. Centramos nuestra presentación en el sistema financiero, particularmente en las diversas áreas que están aplicando cada vez más soluciones de IA: (i) inversiones; (ii) crédito; (iii) relaciones con los clientes; y (iv) cumplimiento y ciberseguridad. También destacamos el uso de la IA por parte de los bancos centrales para mejorar sus actividades regulatorias y de supervisión ayudando a identificar transacciones ilegales y aumentar la eficiencia de las operaciones diarias, por ejemplo. También abordamos el hecho de que tal amplitud de aplicaciones no está exenta de riesgos y señales de alerta, tanto éticas como financieras. Exploramos estos riesgos para aclarar las limitaciones de la IA y los obstáculos que debemos enfrentar si queremos que la tecnología alcance su potencial promoviendo un impacto neto positivo.

Palabra clave: IA, inteligencia artificial, innovación financiera, riesgos IA

Ragazzo, Carlos and Tolentino, Morgana and Cataldo, Bruna, Inteligência artificial: o que é e como se aplica às finanças? (Artificial Intelligence: What is It and How Does Finance Use It?) (August 07, 2023). Available at SSRN: https://ssrn.com/abstract=4579348 or http://dx.doi.org/10.2139/ssrn.4579348

12.08.2023

De la ficción a la realidad: el creciente papel de la IA generativa en los negocios y las finanzas

La Inteligencia Artificial Generativa, como ChatGPT de OpenAI, ha revolucionado el mundo empresarial, con beneficios que incluyen mayor accesibilidad, eficiencia y reducción de costes. Este artículo revisa los desarrollos recientes de la IA generativa en los negocios y las finanzas, resume sus aplicaciones prácticas, proporciona algunos ejemplos de las últimas herramientas de IA generativa y demuestra que la IA generativa puede revolucionar el análisis de datos en la industria y el mundo académico. Para probar la capacidad de la IA generativa para respaldar la toma de decisiones en los mercados financieros, utilizamos ChatGPT para capturar los sentimientos corporativos hacia la política ambiental ingresando texto extraído de los estados financieros corporativos. Nuestros resultados demuestran que las puntuaciones de sentimiento generadas por ChatGPT pueden predecir las capacidades de gestión de riesgos de las empresas y el rendimiento de las acciones. Finalmente, proponemos varias preguntas para futuras investigaciones sobre la intersección de la IA generativa en los negocios y las finanzas.

From Fiction to Fact: The Growing Role of Generative AI in Business and Finance

18.07.2023

Comparación del rendimiento de las respuestas de ChatGPT-3.5, ChatGPT-4 y Bard con preguntas relacionadas con la salud: exhaustividad, precisión y actualizado

El propósito de este estudio fue evaluar el desempeño comparativo de ChatGPT-3.5, ChatGPT-4 y Bard al responder preguntas relacionadas con la salud en cuanto a los dominios de exhaustividad, precisión y actualidad (estar actualizado). Los médicos de familia calificaron las respuestas de tres los tres chatbots a cinco preguntas con una escala de cinco puntos. Para el dominio de exhaustividad, ChatGPT-4 obtuvo una mejor puntuación media que Bard, y Bard obtuvo una mejor puntuación media de ChatGPT-3.5. Para el dominio de precisión, no se observó una diferencia estadísticamente significativa entre los tres chatbots. Para el dominio de actuaidad, Bard obtuvo una mejor puntuación media que ChatGPT-4, y ChatGPT-4 obtuvo una mejor puntuación media que ChatGPT-3.5. Cada uno de los chatbots se evaluó como preciso, actualizado y adecuadamente completo.

Comparing Response Performances of Chatgpt-3.5, Chatgpt-4 and Bard to Health-Related Questions: Comprehensiveness, Accuracy and Being Up-to-Date

22.05.2023

IA generativa

El término «IA generativa» se refiere a técnicas computacionales que son capaces de generar contenido aparentemente nuevo y significativo, como texto, imágenes o audio a partir de datos de entrenamiento. La difusión generalizada de esta tecnología con ejemplos como Dall-E 2, GPT-4 y Copilot está revolucionando actualmente la forma en que trabajamos y nos comunicamos entre nosotros. En este artículo, proporcionamos una conceptualización de la IA generativa como una entidad en los sistemas sociotécnicos y brindamos ejemplos de modelos, sistemas y aplicaciones. agenda para la investigación de Business & Information Systems Engineering (BISE) A diferencia de trabajos anteriores, nos centramos en la IA generativa en el contexto de los sistemas de información y, con este fin,discutimos varias oportunidades y desafíos que son exclusivos de la comunidad BISE y hacemos sugerencias para direcciones impactantes para la investigación BISE.

Generative AI

Fuente:

SSRN Generative AI Special Topic Hub