Conozca al equipo que desarrolla una alternativa ChatGPT de código abierto

por admin

a riesgo En lugar de decir lo obvio, los chatbots impulsados ​​por IA están de moda en este momento.

Las herramientas, que pueden escribir ensayos, correos electrónicos y más con algunas instrucciones basadas en texto, han captado la atención tanto de los aficionados a la tecnología como de las empresas. ChatGPT de OpenAI, posiblemente el progenitor, tiene aproximadamente 100 millones de usuarios. A través de una API, marcas como Instacart, Quizlet y Snap han comenzado a incorporarla en sus respectivas plataformas, aumentando aún más las cifras de uso.

Pero para disgusto de algunos dentro de la comunidad de desarrolladores, las organizaciones que construyen estos chatbots siguen siendo parte de un club exclusivo, bien financiado y con buenos recursos. Anthropic, DeepMind y OpenAI, todos ellos con mucho dinero, se encuentran entre los pocos que han logrado desarrollar sus propias tecnologías modernas de chatbot. Por el contrario, la comunidad de código abierto se ha visto obstaculizada en sus esfuerzos por crear uno.

Esto se debe en gran medida a que entrenar los modelos de IA que sustentan los chatbots requiere una enorme cantidad de potencia de procesamiento, sin mencionar un gran conjunto de datos de entrenamiento que debe ser cuidadosamente seleccionado. Pero un nuevo grupo de investigadores, poco afiliado, se hace llamar Juntos Nuestro objetivo es superar esos desafíos para ser el primero en abrir un sistema similar a ChatGPT.

Juntos ya ha avanzado. La semana pasada, lanzó modelos capacitados que cualquier desarrollador puede usar para crear un chatbot con tecnología de inteligencia artificial.

«Together está construyendo una plataforma accesible para modelos de base abierta», dijo a TechCrunch Vipul Ved Prakash, cofundador de Together, en una entrevista por correo electrónico. “Pensamos que lo que estamos construyendo es parte del ‘momento Linux’ de la IA. Queremos permitir que investigadores, desarrolladores y empresas utilicen y mejoren modelos de IA de código abierto con una plataforma que reúna datos, modelos y computación”.

Prakash anteriormente cofundó Cloudmark, una startup de ciberseguridad que Proofpoint compró por 110 millones de dólares en 2017. Después de que Apple adquirió la siguiente empresa de Prakash, la plataforma de análisis y búsqueda de redes sociales Topsy, en 2013, permaneció como director senior en Apple durante cinco años antes. partiendo para empezar juntos.

Durante el fin de semana, Together lanzó su primer gran proyecto, OpenChatKit, un marco para crear chatbots con tecnología de inteligencia artificial, tanto especializados como de uso general. El kit, disponible en GitHub, incluye los modelos entrenados antes mencionados y un sistema de recuperación «extensible» que permite a los modelos extraer información (por ejemplo, resultados deportivos actualizados) de diversas fuentes y sitios web.

Los modelos base provienen de EleutherAI, un grupo de investigadores sin fines de lucro que investigan sistemas de generación de texto. Pero se perfeccionaron utilizando la infraestructura informática de Together, Together Decentralized Cloud, que agrupa recursos de hardware, incluidas GPU, de voluntarios en Internet.

«Juntos desarrollaron los repositorios de fuentes que permiten a cualquiera replicar los resultados del modelo, ajustar su propio modelo o integrar un sistema de recuperación», dijo Prakash. “Juntos también desarrollamos documentación y procesos comunitarios”.

Más allá de la infraestructura de capacitación, Together colaboró ​​con otras organizaciones de investigación, incluida LAION (que ayudó a desarrollar Stable Diffusion) y Ontocord del tecnólogo Huu Nguyen para crear un conjunto de datos de capacitación para los modelos. Llamado Conjunto de datos generalistas de instrucción abierta, el conjunto de datos contiene más de 40 millones de ejemplos de preguntas y respuestas, preguntas de seguimiento y más diseñadas para «enseñar» a un modelo cómo responder a diferentes instrucciones (por ejemplo, «Escribir un esquema para un artículo de historia sobre La guerra civil»).

Para solicitar comentarios, Together lanzó una demostración que cualquiera puede usar para interactuar con los modelos OpenChatKit.

«La motivación clave fue permitir que cualquiera pudiera usar OpenChatKit para mejorar el modelo y crear modelos de chat más específicos para tareas», agregó Prakash. «Si bien los grandes modelos de lenguaje han demostrado una capacidad impresionante para responder preguntas generales, tienden a lograr una precisión mucho mayor cuando se ajustan para aplicaciones específicas».

Prakash dice que los modelos pueden realizar una variedad de tareas, incluida la resolución de problemas matemáticos básicos de nivel de escuela secundaria, generar código Python, escribir historias y resumir documentos. Entonces, ¿qué tan bien resisten las pruebas? Bastante bien, según mi experiencia, al menos para cosas básicas como escribir cartas de presentación que suenen plausibles.

OpenChatKit puede escribir cartas de presentación, entre otras cosas. Créditos de imagen: OpenChatKit

Pero hay un límite muy claro. Si sigues charlando con los modelos de OpenChatKit el tiempo suficiente, comenzarán a tener los mismos problemas que presentan ChatGPT y otros chatbots recientes, como repetir como loros información falsa. Conseguí que los modelos de OpenChatKit dieran una respuesta contradictoria sobre si la Tierra era plana, por ejemplo, y una declaración completamente falsa sobre quién ganó las elecciones presidenciales de EE. UU. de 2020.

OpenChatKit

OpenChatKit, respondiendo una pregunta (incorrectamente) sobre las elecciones presidenciales de EE. UU. de 2020. Créditos de imagen: OpenChatKit

Los modelos OpenChatKit son débiles en otras áreas menos alarmantes, como el cambio de contexto. Cambiar de tema en medio de una conversación a menudo los confundirá. Tampoco son particularmente hábiles en tareas de codificación y escritura creativa y, a veces, repiten sus respuestas sin cesar.

Prakash culpa al conjunto de datos de entrenamiento, que según él es un trabajo activo en progreso. «Es un área que continuaremos mejorando y hemos diseñado un proceso donde la comunidad abierta puede participar activamente en esto», dijo, refiriéndose a la demostración.

La calidad de las respuestas de OpenChatKit puede dejar mucho que desear. (Para ser justos, los ChatGPT no son dramáticamente mejores dependiendo del mensaje). Pero Together es ser proactivo, o al menos intentando ser proactivo, en el frente de la moderación.

Si bien a algunos chatbots como ChatGPT se les puede incitar a escribir texto sesgado u odioso, debido a sus datos de entrenamiento, algunos de los cuales provienen de fuentes tóxicas, los modelos OpenChatKit son más difíciles de coaccionar. Logré que escribieran un correo electrónico de phishing, pero no se dejarían llevar a territorios más controvertidos, como respaldar el Holocausto o justificar por qué los hombres son mejores directores ejecutivos que las mujeres.

OpenChatKit

OpenChatKit emplea cierta moderación, como se ve aquí. Créditos de imagen: OpenChatKit

Sin embargo, la moderación es una característica opcional de OpenChatKit; los desarrolladores no están obligados a utilizarla. Si bien uno de los modelos fue diseñado «específicamente como una barandilla» para el otro modelo más grande (el modelo que impulsa la demostración), el modelo más grande no tiene filtrado aplicado de forma predeterminada, según Prakash.

Esto es diferente al enfoque de arriba hacia abajo favorecido por OpenAI, Anthropic y otros, que implica una combinación de moderación y filtrado humano y automatizado a nivel de API. Prakash sostiene que esta opacidad a puertas cerradas podría ser más dañina a largo plazo que la falta de filtro obligatorio de OpenChatKit.

“Como muchas tecnologías de doble uso, la IA ciertamente puede usarse en contextos maliciosos. Esto es cierto para la IA abierta o los sistemas cerrados disponibles comercialmente a través de API”, dijo Prakash. “Nuestra tesis es que cuanto más pueda la comunidad de investigación abierta auditar, inspeccionar y mejorar las tecnologías de IA generativa, mejor estaremos como sociedad para encontrar soluciones a estos riesgos. Creemos que un mundo en el que el poder de los grandes modelos generativos de IA está en manos de un puñado de grandes empresas de tecnología, incapaces de auditarlos, inspeccionarlos o comprenderlos, conlleva un mayor riesgo”.

Subrayando el punto de Prakash sobre el desarrollo abierto, OpenChatKit incluye un segundo conjunto de datos de entrenamiento, llamado OIG-moderación, que tiene como objetivo abordar una variedad de desafíos de moderación de chatbot, incluidos los bots que adoptan tonos demasiado agresivos o deprimidos. (Ver: Bing Chat). Se usó para entrenar el más pequeño de los dos modelos en OpenChatKit, y Prakash dice que la moderación OIG se puede aplicar para crear otros modelos que detecten y filtren texto problemático si los desarrolladores optan por hacerlo.

“Nos preocupamos profundamente por la seguridad de la IA, pero creemos que la seguridad a través de la oscuridad es un enfoque deficiente a largo plazo. Una postura abierta y transparente es ampliamente aceptada como la postura predeterminada en los mundos de la seguridad informática y la criptografía, y creemos que la transparencia será fundamental si queremos construir una IA segura”, dijo Prakash. «Wikipedia es una gran prueba de cómo una comunidad abierta puede ser una tremenda solución para tareas desafiantes de moderación a escala masiva».

No estoy muy seguro. Para empezar, Wikipedia no es exactamente el estándar de oro: el proceso de moderación del sitio es notoriamente opaco y territorial. Luego, está el hecho de que a menudo se abusa de los sistemas de código abierto (y rápidamente). Tomando como ejemplo el sistema de inteligencia artificial generador de imágenes Stable Diffusion, a los pocos días de su lanzamiento, comunidades como 4chan estaban usando el modelo, que también incluye herramientas de moderación opcionales, para crear deepfakes pornográficos no consensuados de actores famosos.

La licencia de OpenChatKit prohíbe explícitamente usos como generar información errónea, promover discursos de odio, enviar spam y participar en ciberacoso o acoso. Pero no hay nada que impida que actores malintencionados ignoren tanto esos términos como las herramientas de moderación.

Anticipándose a lo peor, algunos investigadores han comenzado a hacer sonar la alarma sobre los chatbots de acceso abierto.

NewsGuard, una empresa que rastrea información errónea en línea, descubrió en un estudio reciente que los chatbots más nuevos, específicamente ChatGPT, podrían verse incitados a escribir contenido que promueva afirmaciones perjudiciales para la salud sobre las vacunas, imitando la propaganda y la desinformación de China y Rusia y haciéndose eco del tono de los medios de comunicación partidistas. . Según el estudio, ChatGPT cumplió aproximadamente el 80% de las veces cuando se le pidió que escribiera respuestas basadas en ideas falsas y engañosas.

En respuesta a los hallazgos de NewsGuard, OpenAI mejoró los filtros de contenido de ChatGPT en el back-end. Por supuesto, eso no sería posible con un sistema como OpenChatKit, que impone a los desarrolladores la responsabilidad de mantener los modelos actualizados.

Prakash defiende su argumento.

«Muchas aplicaciones necesitan personalización y especialización, y creemos que un enfoque de código abierto respaldará mejor una saludable diversidad de enfoques y aplicaciones», dijo. «Los modelos abiertos están mejorando y esperamos ver un fuerte aumento en su adopción».

Pcenter.es – #Conozca #equipo #desarrolla #una #alternativa #ChatGPT #código #abierto

Síguenos en YouTube: @PCenterES

También le puede interesar

Deja un comentario