|
@@ -73,7 +73,7 @@ extern pgprot_t pgprot_kernel;
|
|
|
|
|
|
#define _MOD_PROT(p, b) __pgprot(pgprot_val(p) | (b))
|
|
|
|
|
|
-#define PAGE_NONE _MOD_PROT(pgprot_user, L_PTE_XN | L_PTE_RDONLY)
|
|
|
+#define PAGE_NONE _MOD_PROT(pgprot_user, L_PTE_XN | L_PTE_RDONLY | L_PTE_NONE)
|
|
|
#define PAGE_SHARED _MOD_PROT(pgprot_user, L_PTE_USER | L_PTE_XN)
|
|
|
#define PAGE_SHARED_EXEC _MOD_PROT(pgprot_user, L_PTE_USER)
|
|
|
#define PAGE_COPY _MOD_PROT(pgprot_user, L_PTE_USER | L_PTE_RDONLY | L_PTE_XN)
|
|
@@ -83,7 +83,7 @@ extern pgprot_t pgprot_kernel;
|
|
|
#define PAGE_KERNEL _MOD_PROT(pgprot_kernel, L_PTE_XN)
|
|
|
#define PAGE_KERNEL_EXEC pgprot_kernel
|
|
|
|
|
|
-#define __PAGE_NONE __pgprot(_L_PTE_DEFAULT | L_PTE_RDONLY | L_PTE_XN)
|
|
|
+#define __PAGE_NONE __pgprot(_L_PTE_DEFAULT | L_PTE_RDONLY | L_PTE_XN | L_PTE_NONE)
|
|
|
#define __PAGE_SHARED __pgprot(_L_PTE_DEFAULT | L_PTE_USER | L_PTE_XN)
|
|
|
#define __PAGE_SHARED_EXEC __pgprot(_L_PTE_DEFAULT | L_PTE_USER)
|
|
|
#define __PAGE_COPY __pgprot(_L_PTE_DEFAULT | L_PTE_USER | L_PTE_RDONLY | L_PTE_XN)
|
|
@@ -203,9 +203,7 @@ static inline pte_t *pmd_page_vaddr(pmd_t pmd)
|
|
|
#define pte_exec(pte) (!(pte_val(pte) & L_PTE_XN))
|
|
|
#define pte_special(pte) (0)
|
|
|
|
|
|
-#define pte_present_user(pte) \
|
|
|
- ((pte_val(pte) & (L_PTE_PRESENT | L_PTE_USER)) == \
|
|
|
- (L_PTE_PRESENT | L_PTE_USER))
|
|
|
+#define pte_present_user(pte) (pte_present(pte) && (pte_val(pte) & L_PTE_USER))
|
|
|
|
|
|
#if __LINUX_ARM_ARCH__ < 6
|
|
|
static inline void __sync_icache_dcache(pte_t pteval)
|
|
@@ -242,7 +240,7 @@ static inline pte_t pte_mkspecial(pte_t pte) { return pte; }
|
|
|
|
|
|
static inline pte_t pte_modify(pte_t pte, pgprot_t newprot)
|
|
|
{
|
|
|
- const pteval_t mask = L_PTE_XN | L_PTE_RDONLY | L_PTE_USER;
|
|
|
+ const pteval_t mask = L_PTE_XN | L_PTE_RDONLY | L_PTE_USER | L_PTE_NONE;
|
|
|
pte_val(pte) = (pte_val(pte) & ~mask) | (pgprot_val(newprot) & mask);
|
|
|
return pte;
|
|
|
}
|