Lines Matching refs:old_spte
473 u64 old_spte = *sptep;
477 if (!is_shadow_present_pte(old_spte)) {
479 return old_spte;
482 if (!spte_has_volatile_bits(old_spte))
485 old_spte = __update_clear_spte_slow(sptep, new_spte);
487 WARN_ON(spte_to_pfn(old_spte) != spte_to_pfn(new_spte));
489 return old_spte;
506 u64 old_spte = mmu_spte_update_no_track(sptep, new_spte);
508 if (!is_shadow_present_pte(old_spte))
516 if (spte_can_locklessly_be_made_writable(old_spte) &&
525 if (is_accessed_spte(old_spte) && !is_accessed_spte(new_spte)) {
527 kvm_set_pfn_accessed(spte_to_pfn(old_spte));
530 if (is_dirty_spte(old_spte) && !is_dirty_spte(new_spte)) {
532 kvm_set_pfn_dirty(spte_to_pfn(old_spte));
547 u64 old_spte = *sptep;
549 if (!spte_has_volatile_bits(old_spte))
552 old_spte = __update_clear_spte_slow(sptep, 0ull);
554 if (!is_shadow_present_pte(old_spte))
557 pfn = spte_to_pfn(old_spte);
566 if (is_accessed_spte(old_spte))
569 if (is_dirty_spte(old_spte))
2997 u64 *sptep, u64 old_spte, u64 new_spte)
3015 if (cmpxchg64(sptep, old_spte, new_spte) != old_spte)
3018 if (is_writable_pte(new_spte) && !is_writable_pte(old_spte)) {