POSIX CPU Timers TOCTOU race (CVE-2025-38352)
Tip
Aprenda e pratique Hacking AWS:
HackTricks Training AWS Red Team Expert (ARTE)
Aprenda e pratique Hacking GCP:HackTricks Training GCP Red Team Expert (GRTE)
Aprenda e pratique Hacking Azure:
HackTricks Training Azure Red Team Expert (AzRTE)
Supporte o HackTricks
- Confira os planos de assinatura!
- Junte-se ao 💬 grupo do Discord ou ao grupo do telegram ou siga-nos no Twitter 🐦 @hacktricks_live.
- Compartilhe truques de hacking enviando PRs para o HackTricks e HackTricks Cloud repositórios do github.
Esta página documenta uma condição de TOCTOU race em Linux/Android POSIX CPU timers que pode corromper o estado do timer e travar o kernel, e sob algumas circunstâncias ser direcionada para privilege escalation.
- Componente afetado: kernel/time/posix-cpu-timers.c
- Primitiva: expiry vs deletion race under task exit
- Sensível à configuração: CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n (IRQ-context expiry path)
Resumo rápido dos internos (relevant for exploitation)
- Três clocks de CPU fazem a contabilização dos timers via cpu_clock_sample():
- CPUCLOCK_PROF: utime + stime
- CPUCLOCK_VIRT: utime only
- CPUCLOCK_SCHED: task_sched_runtime()
- A criação do timer associa um timer a uma task/pid e inicializa os nós do timerqueue:
static int posix_cpu_timer_create(struct k_itimer *new_timer) {
struct pid *pid;
rcu_read_lock();
pid = pid_for_clock(new_timer->it_clock, false);
if (!pid) { rcu_read_unlock(); return -EINVAL; }
new_timer->kclock = &clock_posix_cpu;
timerqueue_init(&new_timer->it.cpu.node);
new_timer->it.cpu.pid = get_pid(pid);
rcu_read_unlock();
return 0;
}
- Ao armar, insere na timerqueue por base e pode atualizar o cache da próxima expiração:
static void arm_timer(struct k_itimer *timer, struct task_struct *p) {
struct posix_cputimer_base *base = timer_base(timer, p);
struct cpu_timer *ctmr = &timer->it.cpu;
u64 newexp = cpu_timer_getexpires(ctmr);
if (!cpu_timer_enqueue(&base->tqhead, ctmr)) return;
if (newexp < base->nextevt) base->nextevt = newexp;
}
- Caminho rápido evita processamento dispendioso a menos que as expirações em cache indiquem um possível disparo:
static inline bool fastpath_timer_check(struct task_struct *tsk) {
struct posix_cputimers *pct = &tsk->posix_cputimers;
if (!expiry_cache_is_inactive(pct)) {
u64 samples[CPUCLOCK_MAX];
task_sample_cputime(tsk, samples);
if (task_cputimers_expired(samples, pct))
return true;
}
return false;
}
- Expiration coleta timers expirados, marca-os como disparados, remove-os da fila; a entrega real é adiada:
#define MAX_COLLECTED 20
static u64 collect_timerqueue(struct timerqueue_head *head,
struct list_head *firing, u64 now) {
struct timerqueue_node *next; int i = 0;
while ((next = timerqueue_getnext(head))) {
struct cpu_timer *ctmr = container_of(next, struct cpu_timer, node);
u64 expires = cpu_timer_getexpires(ctmr);
if (++i == MAX_COLLECTED || now < expires) return expires;
ctmr->firing = 1; // critical state
rcu_assign_pointer(ctmr->handling, current);
cpu_timer_dequeue(ctmr);
list_add_tail(&ctmr->elist, firing);
}
return U64_MAX;
}
Dois modos de processamento de expiração
- CONFIG_POSIX_CPU_TIMERS_TASK_WORK=y: a expiração é adiada via task_work na tarefa alvo
- CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n: a expiração é tratada diretamente no contexto de IRQ
Caminhos de execução do POSIX CPU timer
```c void run_posix_cpu_timers(void) { struct task_struct *tsk = current; __run_posix_cpu_timers(tsk); } #ifdef CONFIG_POSIX_CPU_TIMERS_TASK_WORK static inline void __run_posix_cpu_timers(struct task_struct *tsk) { if (WARN_ON_ONCE(tsk->posix_cputimers_work.scheduled)) return; tsk->posix_cputimers_work.scheduled = true; task_work_add(tsk, &tsk->posix_cputimers_work.work, TWA_RESUME); } #else static inline void __run_posix_cpu_timers(struct task_struct *tsk) { lockdep_posixtimer_enter(); handle_posix_cpu_timers(tsk); // IRQ-context path lockdep_posixtimer_exit(); } #endif ```No caminho do IRQ-context, a lista de disparo é processada fora do sighand
Caminho de tratamento do IRQ-context
```c static void handle_posix_cpu_timers(struct task_struct *tsk) { struct k_itimer *timer, *next; unsigned long flags, start; LIST_HEAD(firing); if (!lock_task_sighand(tsk, &flags)) return; // may fail on exit do { start = READ_ONCE(jiffies); barrier(); check_thread_timers(tsk, &firing); check_process_timers(tsk, &firing); } while (!posix_cpu_timers_enable_work(tsk, start)); unlock_task_sighand(tsk, &flags); // race window opens here list_for_each_entry_safe(timer, next, &firing, it.cpu.elist) { int cpu_firing; spin_lock(&timer->it_lock); list_del_init(&timer->it.cpu.elist); cpu_firing = timer->it.cpu.firing; // read then reset timer->it.cpu.firing = 0; if (likely(cpu_firing >= 0)) cpu_timer_fire(timer); rcu_assign_pointer(timer->it.cpu.handling, NULL); spin_unlock(&timer->it_lock); } } ```Causa raiz: TOCTOU entre expiração em IRQ e deleção concorrente durante o término da tarefa Pré-condições
- CONFIG_POSIX_CPU_TIMERS_TASK_WORK está desabilitado (caminho IRQ em uso)
- A tarefa alvo está saindo mas não foi totalmente recolhida
- Outra thread chama concorrentemente posix_cpu_timer_del() para o mesmo timer
Sequência
- update_process_times() aciona run_posix_cpu_timers() em contexto IRQ para a tarefa que está saindo.
- collect_timerqueue() define ctmr->firing = 1 e move o timer para a lista temporária de firing.
- handle_posix_cpu_timers() solta sighand via unlock_task_sighand() para entregar timers fora do lock.
- Imediatamente após o unlock, a tarefa em saída pode ser recolhida; uma thread irmã executa posix_cpu_timer_del().
- Nesse intervalo, posix_cpu_timer_del() pode falhar em adquirir state via cpu_timer_task_rcu()/lock_task_sighand() e assim pular a guarda normal em voo que verifica timer->it.cpu.firing. A deleção prossegue como se não estivesse firing, corrompendo o estado enquanto a expiração é tratada, levando a crashes/UB.
Por que o modo TASK_WORK é seguro por design
- Com CONFIG_POSIX_CPU_TIMERS_TASK_WORK=y, a expiração é adiada para task_work; exit_task_work roda antes de exit_notify, então a sobreposição em tempo de IRQ com o recolhimento não ocorre.
- Mesmo assim, se a tarefa já estiver saindo, task_work_add() falha; condicionar à exit_state torna ambos os modos consistentes.
Correção (Android common kernel) e justificativa
- Adicione um retorno precoce se a tarefa atual estiver saindo, bloqueando todo o processamento:
// kernel/time/posix-cpu-timers.c (Android common kernel commit 157f357d50b5038e5eaad0b2b438f923ac40afeb)
if (tsk->exit_state)
return;
- Isto impede a entrada em handle_posix_cpu_timers() para tarefas que estão saindo, eliminando a janela onde posix_cpu_timer_del() poderia perder it.cpu.firing e competir com o processamento de expiração.
Impact
- A corrupção da memória do kernel das estruturas de timer durante expiração/remoção concorrente pode causar falhas imediatas (DoS) e constitui uma primitiva poderosa para escalada de privilégios, devido às oportunidades de manipulação arbitrária do estado do kernel.
Triggering the bug (safe, reproducible conditions) Build/config
- Garanta CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n e use um kernel sem a correção de gating de exit_state.
Runtime strategy
- Mire em uma thread prestes a sair e anexe um CPU timer a ela (clock por thread ou por processo):
- Para thread: timer_create(CLOCK_THREAD_CPUTIME_ID, …)
- Para todo o processo: timer_create(CLOCK_PROCESS_CPUTIME_ID, …)
- Arme com uma expiração inicial muito curta e um intervalo pequeno para maximizar entradas no IRQ-path:
static timer_t t;
static void setup_cpu_timer(void) {
struct sigevent sev = {0};
sev.sigev_notify = SIGEV_SIGNAL; // delivery type not critical for the race
sev.sigev_signo = SIGUSR1;
if (timer_create(CLOCK_THREAD_CPUTIME_ID, &sev, &t)) perror("timer_create");
struct itimerspec its = {0};
its.it_value.tv_nsec = 1; // fire ASAP
its.it_interval.tv_nsec = 1; // re-fire
if (timer_settime(t, 0, &its, NULL)) perror("timer_settime");
}
- A partir de uma thread irmã, exclua concorrentemente o mesmo timer enquanto a thread alvo sai:
void *deleter(void *arg) {
for (;;) (void)timer_delete(t); // hammer delete in a loop
}
- Race amplifiers: alta taxa de ticks do escalonador, carga de CPU, ciclos repetidos de saída/re-criação de threads. O crash normalmente se manifesta quando posix_cpu_timer_del() deixa de notar um firing devido à falha no lookup/bloqueio da task logo após unlock_task_sighand().
Detection and hardening
- Mitigation: aplique o exit_state guard; prefira habilitar CONFIG_POSIX_CPU_TIMERS_TASK_WORK quando viável.
- Observability: adicione tracepoints/WARN_ONCE em torno de unlock_task_sighand()/posix_cpu_timer_del(); alerte quando it.cpu.firing==1 for observado junto com falha em cpu_timer_task_rcu()/lock_task_sighand(); monitore inconsistências na timerqueue ao redor da saída da task.
Audit hotspots (for reviewers)
- update_process_times() → run_posix_cpu_timers() (IRQ)
- __run_posix_cpu_timers() seleção (TASK_WORK vs IRQ path)
- collect_timerqueue(): define ctmr->firing e move nós
- handle_posix_cpu_timers(): solta sighand antes do loop de firing
- posix_cpu_timer_del(): depende de it.cpu.firing para detectar expiry em voo; essa checagem é pulada quando lookup/bloqueio da task falha durante exit/reap
Notes for exploitation research
- O comportamento divulgado é um primitivo de crash do kernel confiável; transformá-lo em escalada de privilégios normalmente requer uma sobreposição controlável adicional (object lifetime ou write-what-where influence) além do escopo deste resumo. Trate qualquer PoC como potencialmente desestabilizador e execute apenas em emuladores/VMs.
Chronomaly exploit strategy (priv-esc without fixed text offsets)
- Tested target & configs: x86_64 v5.10.157 under QEMU (4 cores, 3 GB RAM). Opções críticas:
CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n,CONFIG_PREEMPT=y,CONFIG_SLAB_MERGE_DEFAULT=n,DEBUG_LIST=n,BUG_ON_DATA_CORRUPTION=n,LIST_HARDENED=n. - Race steering with CPU timers: Uma thread de corrida (
race_func()) consome CPU enquanto os CPU timers disparam;free_func()faz polling emSIGUSR1para confirmar se o timer disparou. AjusteCPU_USAGE_THRESHOLDpara que sinais cheguem apenas às vezes (mensagens intermitentes “Parent raced too late/too early”). Se os timers disparam em toda tentativa, abaixe o threshold; se eles nunca disparam antes da saída da thread, aumente-o. - Dual-process alignment into
send_sigqueue(): Processos parent/child tentam atingir uma segunda janela de race dentro desend_sigqueue(). O parent dormePARENT_SETTIME_DELAY_USmicrossegundos antes de armar os timers; ajuste para baixo quando você ver principalmente “Parent raced too late” e para cima quando ver principalmente “Parent raced too early”. Ver ambos indica que você está na janela; o sucesso é esperado dentro de ~1 minuto após ajuste. - Cross-cache UAF replacement: O exploit libera um
struct sigqueuee em seguida groom o estado do alocador (sigqueue_crosscache_preallocs()) de modo que tanto o danglinguaf_sigqueuequanto o replacementrealloc_sigqueuecaiam em uma pipe buffer data page (cross-cache reallocation). A confiabilidade assume um kernel quieto com poucas alocações desigqueueprévias; se per-CPU/per-node partial slab pages já existirem (sistemas ocupados), a substituição falhará e a cadeia quebrará. O autor intencionalmente deixou sem otimizações para kernels barulhentos.
See also
Ksmbd Streams Xattr Oob Write Cve 2025 37947
References
- Race Against Time in the Kernel’s Clockwork (StreyPaws)
- Android security bulletin – September 2025
- Android common kernel patch commit 157f357d50b5…
- Chronomaly exploit PoC (CVE-2025-38352)
- CVE-2025-38352 analysis – Part 1
- CVE-2025-38352 analysis – Part 2
- CVE-2025-38352 analysis – Part 3
Tip
Aprenda e pratique Hacking AWS:
HackTricks Training AWS Red Team Expert (ARTE)
Aprenda e pratique Hacking GCP:HackTricks Training GCP Red Team Expert (GRTE)
Aprenda e pratique Hacking Azure:
HackTricks Training Azure Red Team Expert (AzRTE)
Supporte o HackTricks
- Confira os planos de assinatura!
- Junte-se ao 💬 grupo do Discord ou ao grupo do telegram ou siga-nos no Twitter 🐦 @hacktricks_live.
- Compartilhe truques de hacking enviando PRs para o HackTricks e HackTricks Cloud repositórios do github.


