OpenAI, yapay zeka güvenliği ve risk hazırlığı odağında üst düzey bir rol için işe alım yapıyor

OpenAI, yapay zeka sistemlerinin hızla daha güçlü ve karmaşık hale gelmesiyle birlikte ortaya çıkabilecek riskleri daha disiplinli bir biçimde yönetmek amacıyla güvenlik yapılanmasını yeniden şekillendiriyor. Şirket, bu kapsamda “preparedness” (hazırlık ve risk öngörüsü) alanının başına geçecek Head of Preparedness unvanlı üst düzey bir yönetici arayışına başladı.
Bu pozisyon, OpenAI’ın ileri seviye (frontier) yapay zeka modellerinin yol açabileceği potansiyel zararları önceden tespit etmeyi hedefleyen Preparedness Framework adlı yapının teknik stratejisinden ve sahadaki uygulamasından sorumlu olacak. Rol; siber güvenlik, biyogüvenlik, kötüye kullanım senaryoları, sistematik risk analizleri ve yapay zekanın kullanıcıların ruh sağlığı üzerindeki olası etkileri gibi geniş bir risk yelpazesini kapsıyor.
Tanımlamaya göre Head of Preparedness, tehdit modelleme süreçlerinden yetenek değerlendirmelerine, risk eşiklerinin belirlenmesinden ek güvenlik önlemleri veya dağıtım kısıtlamalarına kadar kritik kararlarda doğrudan yetki sahibi olacak. Bu yönüyle pozisyon, yalnızca teorik bir güvenlik rolü olmaktan çıkıp, yeni yapay zeka modellerinin ne zaman, hangi koşullarda ve hangi sınırlamalarla kullanıma sunulacağını belirleyen stratejik bir merkez haline geliyor.
Rolün, OpenAI’ın Safety Systems organizasyonu içinde konumlanması ve araştırma, ürün geliştirme ile politika ekipleriyle yakın iş birliği içinde çalışması planlanıyor. Açıklanan yıllık maaş aralığının yaklaşık 550–555 bin dolar seviyesinde olması ve buna ek olarak hisse opsiyonları sunulması, şirketin bu pozisyona atfettiği önemi açıkça ortaya koyuyor.
Bu adım, OpenAI’ın güvenlik liderliğinde son dönemde yaşanan değişimlerin ardından geliyor. Önceki Head of Preparedness yöneticisi Aleksander Madry’nin farklı bir göreve kaydırılmasının ardından, bu sorumluluk geçici olarak üst düzey yöneticiler arasında paylaşılmıştı. Yeni bir atamayla bu alanın kalıcı ve merkezi bir liderliğe kavuşturulması hedefleniyor.
OpenAI CEO’su Sam Altman da son açıklamalarında, yapay zekanın özellikle bilgisayar güvenliğinde kritik açıklar tespit edebilecek bir seviyeye yaklaşması ve kullanıcıların ruh sağlığı üzerindeki olası etkileri nedeniyle bu pozisyonu “kritik bir dönemde kritik bir görev” olarak tanımlıyor.
Son aylarda üretken yapay zekanın psikolojik etkileri üzerine artan kamuoyu tartışmaları ve hukuki girişimler, şirketin bu başlığı daha kurumsal ve sistematik bir çerçevede ele alma ihtiyacını güçlendirmiş durumda. Yeni Head of Preparedness, OpenAI’ın yalnızca teknolojik ilerlemeyi hızlandırmakla kalmayıp, bu ilerlemenin doğurabileceği yan etkileri de aynı ciddiyetle yönetme kararlılığının somut bir göstergesi olarak öne çıkıyor.