ChatGPT 5 – 24 óra alatt jailbreak-elték meg
Két különböző biztonsági kutatócsoport is tesztelte az OpenAI nemrég bemutatott GPT-5 nyelvi modelljét, és mindkettő komoly biztonsági hiányosságokat fedezett fel. A Grok-4 modellt korábban két nap alatt sikerült feltörni, a GPT-5 pedig mindössze 24 óráig bírta ugyanazon kutatók keze alatt. Az egyik red team vizsgálata során azt a megállapítást tette, hogy a nyers GPT-5 modell […]