Sfoglia il codice sorgente

[libcpu] add volatile for __asm.

SummerGift 7 anni fa
parent
commit
eb72d19179
4 ha cambiato i file con 66 aggiunte e 66 eliminazioni
  1. 17 17
      libcpu/arm/am335x/mmu.c
  2. 18 18
      libcpu/arm/armv6/mmu.c
  3. 18 18
      libcpu/arm/dm36x/mmu.c
  4. 13 13
      libcpu/arm/s3c24x0/mmu.c

+ 17 - 17
libcpu/arm/am335x/mmu.c

@@ -48,13 +48,13 @@ void mmu_setttbase(rt_uint32_t i)
     * set by page table entry
     */
 	value = 0;
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c8, c7, 0
 	}
 
 	value = 0x55555555;
-	__asm
+	__asm volatile
 	{
         mcr p15, 0, value, c3, c0, 0
         mcr p15, 0, i, c2, c0, 0
@@ -63,7 +63,7 @@ void mmu_setttbase(rt_uint32_t i)
 
 void mmu_set_domain(rt_uint32_t i)
 {
-    __asm
+    __asm volatile
     {
         mcr p15,0, i, c3, c0,  0
     }
@@ -73,7 +73,7 @@ void mmu_enable()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x01
@@ -85,7 +85,7 @@ void mmu_disable()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x01
@@ -97,7 +97,7 @@ void mmu_enable_icache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x1000
@@ -109,7 +109,7 @@ void mmu_enable_dcache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x04
@@ -121,7 +121,7 @@ void mmu_disable_icache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x1000
@@ -133,7 +133,7 @@ void mmu_disable_dcache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x04
@@ -145,7 +145,7 @@ void mmu_enable_alignfault()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x02
@@ -157,7 +157,7 @@ void mmu_disable_alignfault()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x02
@@ -167,7 +167,7 @@ void mmu_disable_alignfault()
 
 void mmu_clean_invalidated_cache_index(int index)
 {
-    __asm
+    __asm volatile
     {
         mcr p15, 0, index, c7, c14, 2
     }
@@ -181,7 +181,7 @@ void mmu_clean_invalidated_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
     while(ptr < buffer + size)
     {
-    	__asm
+    	__asm volatile
     	{
     		MCR p15, 0, ptr, c7, c14, 1
     	}
@@ -197,7 +197,7 @@ void mmu_clean_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while (ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c10, 1
 		}
@@ -213,7 +213,7 @@ void mmu_invalidate_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while (ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c6, 1
 		}
@@ -226,7 +226,7 @@ void mmu_invalidate_tlb()
     register rt_uint32_t value;
 
     value = 0;
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c8, c7, 0
     }
@@ -238,7 +238,7 @@ void mmu_invalidate_icache()
 
     value = 0;
 
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c7, c5, 0
     }

+ 18 - 18
libcpu/arm/armv6/mmu.c

@@ -34,13 +34,13 @@ void mmu_setttbase(rt_uint32_t i)
 	 * set by page table entry
 	 */
 	value = 0;
-	__asm
+	__asm volatile
 	{
 		mcr p15, 0, value, c8, c7, 0
 	}
 
 	value = 0x55555555;
-	__asm
+	__asm volatile
 	{
 		mcr p15, 0, value, c3, c0, 0
 			mcr p15, 0, i, c2, c0, 0
@@ -49,7 +49,7 @@ void mmu_setttbase(rt_uint32_t i)
 
 void mmu_set_domain(rt_uint32_t i)
 {
-	__asm
+	__asm volatile
 	{
 		mcr p15,0, i, c3, c0,  0
 	}
@@ -59,7 +59,7 @@ void mmu_enable()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			orr value, value, #0x01
@@ -71,7 +71,7 @@ void mmu_disable()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			bic value, value, #0x01
@@ -83,7 +83,7 @@ void mmu_enable_icache()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			orr value, value, #0x1000
@@ -95,7 +95,7 @@ void mmu_enable_dcache()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			orr value, value, #0x04
@@ -107,7 +107,7 @@ void mmu_disable_icache()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			bic value, value, #0x1000
@@ -119,7 +119,7 @@ void mmu_disable_dcache()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			bic value, value, #0x04
@@ -131,7 +131,7 @@ void mmu_enable_alignfault()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			orr value, value, #0x02
@@ -143,7 +143,7 @@ void mmu_disable_alignfault()
 {
 	register rt_uint32_t value;
 
-	__asm
+	__asm volatile
 	{
 		mrc p15, 0, value, c1, c0, 0
 			bic value, value, #0x02
@@ -153,7 +153,7 @@ void mmu_disable_alignfault()
 
 void mmu_clean_invalidated_cache_index(int index)
 {
-	__asm
+	__asm volatile
 	{
 		mcr p15, 0, index, c7, c14, 2
 	}
@@ -167,7 +167,7 @@ void mmu_clean_invalidated_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while(ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c14, 1
 		}
@@ -183,7 +183,7 @@ void mmu_clean_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while (ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c10, 1
 		}
@@ -199,7 +199,7 @@ void mmu_invalidate_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while (ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c6, 1
 		}
@@ -212,7 +212,7 @@ void mmu_invalidate_tlb()
 	register rt_uint32_t value;
 
 	value = 0;
-	__asm
+	__asm volatile
 	{
 		mcr p15, 0, value, c8, c7, 0
 	}
@@ -224,7 +224,7 @@ void mmu_invalidate_icache()
 
 	value = 0;
 
-	__asm
+	__asm volatile
 	{
 		mcr p15, 0, value, c7, c5, 0
 	}
@@ -237,7 +237,7 @@ void mmu_invalidate_dcache_all()
 
 	value = 0;
 
-	__asm
+	__asm volatile
 	{
 		mcr p15, 0, value, c7, c6, 0
 	}

+ 18 - 18
libcpu/arm/dm36x/mmu.c

@@ -34,13 +34,13 @@ void mmu_setttbase(rt_uint32_t i)
     * set by page table entry
     */
 	value = 0;
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c8, c7, 0
 	}
 
 	value = 0x55555555;
-	__asm
+	__asm volatile
 	{
         mcr p15, 0, value, c3, c0, 0
         mcr p15, 0, i, c2, c0, 0
@@ -49,7 +49,7 @@ void mmu_setttbase(rt_uint32_t i)
 
 void mmu_set_domain(rt_uint32_t i)
 {
-    __asm
+    __asm volatile
     {
         mcr p15,0, i, c3, c0,  0
     }
@@ -59,7 +59,7 @@ void mmu_enable()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x01
@@ -71,7 +71,7 @@ void mmu_disable()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x01
@@ -83,7 +83,7 @@ void mmu_enable_icache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x1000
@@ -95,7 +95,7 @@ void mmu_enable_dcache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x04
@@ -107,7 +107,7 @@ void mmu_disable_icache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x1000
@@ -119,7 +119,7 @@ void mmu_disable_dcache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x04
@@ -131,7 +131,7 @@ void mmu_enable_alignfault()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x02
@@ -143,7 +143,7 @@ void mmu_disable_alignfault()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x02
@@ -153,7 +153,7 @@ void mmu_disable_alignfault()
 
 void mmu_clean_invalidated_cache_index(int index)
 {
-    __asm
+    __asm volatile
     {
         mcr p15, 0, index, c7, c14, 2
     }
@@ -167,7 +167,7 @@ void mmu_clean_invalidated_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
     while(ptr < buffer + size)
     {
-    	__asm
+    	__asm volatile
     	{
     		MCR p15, 0, ptr, c7, c14, 1
     	}
@@ -183,7 +183,7 @@ void mmu_clean_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while (ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c10, 1
 		}
@@ -199,7 +199,7 @@ void mmu_invalidate_dcache(rt_uint32_t buffer, rt_uint32_t size)
 
 	while (ptr < buffer + size)
 	{
-		__asm
+		__asm volatile
 		{
 			MCR p15, 0, ptr, c7, c6, 1
 		}
@@ -212,7 +212,7 @@ void mmu_invalidate_tlb()
     register rt_uint32_t value;
 
     value = 0;
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c8, c7, 0
     }
@@ -224,7 +224,7 @@ void mmu_invalidate_icache()
 
     value = 0;
 
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c7, c5, 0
     }
@@ -237,7 +237,7 @@ void mmu_invalidate_dcache_all()
 
     value = 0;
 
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c7, c6, 0
     }

+ 13 - 13
libcpu/arm/s3c24x0/mmu.c

@@ -174,7 +174,7 @@ void mmu_invalidate_icache()
 #ifdef __CC_ARM
 void mmu_setttbase(rt_uint32_t i)
 {
-    __asm
+    __asm volatile
     {
         mcr p15, 0, i, c2, c0, 0
     }
@@ -182,7 +182,7 @@ void mmu_setttbase(rt_uint32_t i)
 
 void mmu_set_domain(rt_uint32_t i)
 {
-    __asm
+    __asm volatile
     {
         mcr p15,0, i, c3, c0,  0
     }
@@ -192,7 +192,7 @@ void mmu_enable()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x01
@@ -204,7 +204,7 @@ void mmu_disable()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x01
@@ -216,7 +216,7 @@ void mmu_enable_icache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x1000
@@ -228,7 +228,7 @@ void mmu_enable_dcache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x04
@@ -240,7 +240,7 @@ void mmu_disable_icache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x1000
@@ -252,7 +252,7 @@ void mmu_disable_dcache()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x04
@@ -264,7 +264,7 @@ void mmu_enable_alignfault()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         orr value, value, #0x02
@@ -276,7 +276,7 @@ void mmu_disable_alignfault()
 {
     register rt_uint32_t value;
 
-    __asm
+    __asm volatile
     {
         mrc p15, 0, value, c1, c0, 0
         bic value, value, #0x02
@@ -286,7 +286,7 @@ void mmu_disable_alignfault()
 
 void mmu_clean_invalidated_cache_index(int index)
 {
-    __asm
+    __asm volatile
     {
         mcr p15, 0, index, c7, c14, 2
     }
@@ -297,7 +297,7 @@ void mmu_invalidate_tlb()
     register rt_uint32_t value;
 
     value = 0;
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c8, c7, 0
     }
@@ -309,7 +309,7 @@ void mmu_invalidate_icache()
 
     value = 0;
 
-    __asm
+    __asm volatile
     {
         mcr p15, 0, value, c7, c5, 0
     }