Prognóstico de exploração no Chat GPT com ética de inteligência artificial

Abstract

Natural language processing innovations in the past few decades have made it feasible to synthesis and comprehend coherent text in a variety of ways, turning theoretical techniques into practical implementations. Both report summarizing software and sectors like content writers have been significantly impacted by the extensive Language-model. A huge language model, however, could show evidence of social prejudice, giving moral as well as environmental hazards from negligence, according to observations. Therefore, it is necessary to develop comprehensive guidelines for responsible LLM (Large Language Models). Despite the fact that numerous empirical investigations show that sophisticated large language models has very few ethical difficulties, there isn't a thorough investigation and consumers study of the legality of present large language model use. We use a qualitative study method on OpenAI's ChatGPT3 to solution-focus the real-world ethical risks in current large language models in order to further guide ongoing efforts on responsibly constructing ethical large language models. We carefully review ChatGPT3 from the four perspectives of bias and robustness. According to our stated opinions, we objectively benchmark ChatGPT3 on a number of sample datasets. In this work, it was found that a substantial fraction of principled problems are not solved by the current benchmarks; therefore new case examples were provided to support this. Additionally discussed were the importance of the findings regarding ChatGPT3's AI ethics, potential problems in the future, and helpful design considerations for big language models. This study may provide some guidance for future investigations into and mitigation of the ethical risks offered by technology in large Language Models applications.Las innovaciones en el procesamiento del lenguaje natural en las últimas décadas han hecho posible sintetizar y comprender textos coherentes en una variedad de formas, transformando las técnicas teóricas en implementaciones prácticas. Ambos informan que el software extenso y las industrias como la de los creadores de contenido se han visto significativamente afectadas por el modelo de lenguaje extensivo. Sin embargo, un modelo de lenguaje enorme podría mostrar evidencia de sesgo social, dando riesgos morales y ambientales por negligencia, según las observaciones. Por lo tanto, es necesario desarrollar lineamientos completos para los LLM (Modelos de Lenguaje Grandes) responsables. A pesar de que numerosas investigaciones empíricas muestran que los modelos sofisticados de lenguaje amplio tienen muy pocas dificultades éticas, no existe una investigación exhaustiva y un estudio del consumidor sobre la legalidad del uso actual de modelos de lenguaje amplio. Usamos un método de estudio cualitativo en ChatGPT3 de OpenAI para enfocarnos en resolver los riesgos éticos del mundo real en los modelos actuales de lenguaje amplio para guiar aún más los esfuerzos en curso en la construcción responsable de modelos éticos de lenguaje amplio. Analizamos cuidadosamente ChatGPT3 desde las cuatro perspectivas de sesgo y robustez. De acuerdo con nuestras opiniones expresadas, comparamos ChatGPT3 objetivamente en múltiples conjuntos de datos de muestra. En este trabajo se encontró que una fracción sustancial de los problemas de principios no son resueltos por los marcos actuales; por lo tanto, se han proporcionado nuevos ejemplos de casos para respaldar esto. Además, se discutió la importancia de los hallazgos sobre la ética de la IA de ChatGPT3, los problemas potenciales en el futuro y las consideraciones de diseño útiles para modelos de lenguaje grandes. Este estudio puede proporcionar algunas pautas para futuras investigaciones y mitigación de los riesgos éticos que ofrece la tecnología en grandes aplicaciones de Language Models.As inovações de processamento de linguagem natural nas últimas décadas tornaram possível sintetizar e compreender textos coerentes de várias maneiras, transformando técnicas teóricas em implementações práticas. Ambos relatam que softwares resumidos e setores como criadores de conteúdo foram significativamente afetados pelo extenso modelo de linguagem. Um enorme modelo de linguagem, no entanto, poderia mostrar evidências de preconceito social, dando riscos morais e ambientais por negligência, de acordo com as observações. Portanto, é necessário desenvolver diretrizes abrangentes para LLM (Large Language Models) responsáveis. Apesar do fato de numerosas investigações empíricas mostrarem que modelos sofisticados de linguagem ampla têm muito poucas dificuldades éticas, não há uma investigação completa e estudo de consumidores sobre a legalidade do uso atual de modelos de linguagem ampla. Usamos um método de estudo qualitativo no ChatGPT3 da OpenAI para focar na solução os riscos éticos do mundo real nos atuais modelos de linguagem ampla, a fim de orientar ainda mais os esforços contínuos na construção responsável de modelos éticos de linguagem ampla. Analisamos cuidadosamente o ChatGPT3 a partir das quatro perspectivas de viés e robustez. De acordo com nossas opiniões declaradas, comparamos objetivamente o ChatGPT3 em vários conjuntos de dados de amostra. Neste trabalho, constatou-se que uma fração substancial dos problemas de princípios não é resolvida pelos referenciais atuais; portanto, novos exemplos de casos foram fornecidos para apoiar isso. Além disso, foram discutidas a importância das descobertas sobre a ética de IA do ChatGPT3, possíveis problemas no futuro e considerações de design úteis para grandes modelos de linguagem. Este estudo pode fornecer algumas orientações para futuras investigações e mitigação dos riscos éticos oferecidos pela tecnologia em grandes aplicações de Modelos de Linguagem

    Similar works