GPTs personalizados -Módulo 1 – Capítulo 5 – Seguridad y Jailbreak de GPTs

En este capítulo Enric aborda la importancia de proteger las instrucciones de GPTs personalizados para evitar la copia o el acceso no autorizado a información privada o exclusiva. Se explora cómo usuarios pueden intentar extraer esta información a través de técnicas de hacking y se sugieren métodos para salvaguardarlas, incluyendo el uso de advertencias y la limitación del acceso a ciertas funcionalidades. Sin embargo, se reconoce que proteger completamente estas instrucciones es complicado, especialmente con acceso a intérpretes de código.

3 respuestas a «GPTs personalizados -Módulo 1 – Capítulo 5 – Seguridad y Jailbreak de GPTs»

  1. Avatar de Daniel
    Daniel

    A día de hoy, es posible que accedan a las instrucciones de un gpt de uso interno (sólo compartido con cuentas Team, por ejemplo) de forma externa a la organización? Doy por hecho que publicando el gpt es posible, como mostráis en el vídeo. Pero… si no llega a hacerse público? Gracias!

  2. Avatar de Jesus Mendez
    Jesus Mendez

    Hola,

    Lo del hack de los gpts es una pasada. Funciona en muchos, pero en algunos nada de nada. Me ha llamado la atencion este : Email Mail By smartprompt.xyz
    No hay manera con lo que la proteccion que tiene para no revelear el system prompt es muy buena. ¿Como podriamos mejorar nuestros GPT´s en base a la proteccion de este gpt.?

    Gracias

    1. Avatar de Oscar JHE
      Oscar JHE

      Por ahora la única manera de superar lo que se menciona en el curso es buscando papers actuales o prueba de ensayo y error.

Deja una respuesta