Apple одлучи на некое време да го одложи спроведувањето на системот што требаше да служи за заштита на децата и да се бори против детската порнографија. Компанијата се најде на удар поради воведување на CSAM системот за заштита, бидејќи покрај тоа што е систем за заштита, тоа е и напад врз приватноста на корисниците.
Apple сакаше да претстави дека новиот iOS има вградена функција преку која компанијата ќе бара фотографии и ќе ги споредува со фотографиите од базата на податоци за експлоатација и злоупотреба на децата. Сепак, на многумина не им се допадна таа идеја и компанијата се најде на удар.
Се спротивставија корисниците, аналитичарите, познатите личности, а на крајот дури и работниците на оваа компанија, па Apple одлучи официјално да го одложи воведувањето на овој систем.
Идејата е секако добра, но реализацијата е проблематична, бидејќи луѓето се уште не сакаат да и дозволат на компанијата да им „пребарува“ на iCloud.
По првите критики, најавија дека нема да има деградација на квалитетот на енкрипција и заштита на приватноста, но и дека ќе ги отфрлат сите можни барања на владите и истражните органи да ја прошират својата програма за заштита на децата, за да побараат каква било друга содржина. Ниту тоа не и се допадна на јавноста, па Apple одлучи да го одложи воведувањето на овој систем.