Detect Safe Search
Bu aktivite, bir görselin güvenli olup olmadığını analiz etmek için kullanılır. İçerikte uygunsuzluk barındırıp barındırmadığı (örneğin: yetişkin içerik, şiddet, nefret söylemi vb.) analiz edilir ve güvenlik düzeyleri çıktı olarak elde edilir.
Özellikler
Display Name:Aktivitenin süreç içinde ayırt edilmesi için verilen isimdir. Varsayılan olarak "Detect Safe Search" olarak ayarlanır.
Description : Aktivitenin işlevini açıklayan isteğe bağlı bir not alanıdır. Sürecin bakımını kolaylaştırmak için kullanılır.
Delay Before : Aktivite başlamadan önce geçen bekleme süresini (saniye cinsinden) belirtir.
Varsayılan Değer: 0 (Bekleme olmadan çalışır).
Örnek Kullanım: Aktivitenin çalıştırılmasından önce belirli bir süre beklemek gerekiyorsa, bu süre burada belirtilir. Örneğin, 2 yazılırsa aktivite başlamadan önce 2 saniye bekler.
Delay After: Aktivite tamamlandıktan sonra geçen bekleme süresini (saniye cinsinden) belirtir.
Varsayılan Değer: 0 (Bekleme olmadan bir sonraki aktiviteye geçer).
Örnek Kullanım: İşlem tamamlandıktan sonra sistemde gecikmeler yaşanıyorsa ya da sonraki adımın başlaması için bir süre verilmesi gerekiyorsa, bu alanda belirtilir.
Continue On Error: Aktivite sırasında bir hata oluştuğunda sürecin devam edip etmeyeceğini kontrol eden özelliktir.
True: Aktivite hata aldığında bile süreç çalışmaya devam eder.
False: Aktivite hata alırsa süreç durur.
Varsayılan Değer: False (Varsayılan olarak süreç hata alırsa durur).
Örnek Kullanım: Kritik olmayan işlemlerde hata olsa bile sürecin devam etmesi isteniyorsa bu seçenek True olarak ayarlanır. Örneğin, bir dosyanın varlığını kontrol eden bir aktivitede hata alınırsa ve süreç bu hataya rağmen devam etmeliyse bu seçenek aktif edilir.
Inputs
Image Uri
Veri Tipi: Text
Açıklama: İşlenecek görselin URI adresi.
File Path
Veri Tipi: Text
Açıklama: Görselin yerel dosya sistemi üzerindeki yolu.
Credential Path
Veri Tipi: Text
Açıklama: Güvenlik analiz servisine erişim için gerekli kimlik dosyası.
Outputs
Result
Veri Tipi: Collection
Açıklama: Görselin güvenlik analiz sonuçlarını içeren koleksiyon. (örneğin: adult, spoof, medical, violence vb. etiketler)
Kullanım Örnekleri:
Uygunsuz içerik içeren görsellerin filtrelenmesi
Kullanıcı tarafından yüklenen görsellerin güvenlik denetiminden geçirilmesi
Sosyal medya içerik moderasyonu için otomatik görsel kontrolü
Platform politikalarına aykırı olabilecek içeriklerin önceden tespiti
Last updated