Sblock fill by using to_le32/to_le_16 macros & drop gdt_reserved blocks
[lwext4.git] / lwext4 / ext4_bcache.c
index 305f96f6847ba8969f44b69a0d95036916c639a9..07c60e22ae3c202cc64edb740ff2be2250d09c0e 100644 (file)
-/*\r
- * Copyright (c) 2013 Grzegorz Kostka (kostka.grzegorz@gmail.com)\r
- * All rights reserved.\r
- *\r
- * Redistribution and use in source and binary forms, with or without\r
- * modification, are permitted provided that the following conditions\r
- * are met:\r
- *\r
- * - Redistributions of source code must retain the above copyright\r
- *   notice, this list of conditions and the following disclaimer.\r
- * - Redistributions in binary form must reproduce the above copyright\r
- *   notice, this list of conditions and the following disclaimer in the\r
- *   documentation and/or other materials provided with the distribution.\r
- * - The name of the author may not be used to endorse or promote products\r
- *   derived from this software without specific prior written permission.\r
- *\r
- * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR\r
- * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES\r
- * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.\r
- * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,\r
- * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT\r
- * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,\r
- * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY\r
- * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT\r
- * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF\r
- * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.\r
- */\r
-\r
-/** @addtogroup lwext4\r
- * @{\r
- */\r
-/**\r
- * @file  ext4_bcache.c\r
- * @brief Block cache allocator.\r
- */\r
-\r
-#include <ext4_config.h>\r
-#include <ext4_bcache.h>\r
-#include <ext4_debug.h>\r
-#include <ext4_errno.h>\r
-\r
-#include <string.h>\r
-#include <stdlib.h>\r
-\r
-\r
-int ext4_bcache_init_dynamic(struct ext4_bcache *bc, uint32_t cnt,\r
-    uint32_t itemsize)\r
-{\r
-    ext4_assert(bc && cnt && itemsize);\r
-\r
-    memset(bc, 0, sizeof(struct ext4_bcache));\r
-\r
-    bc->refctr = malloc(cnt * sizeof(uint32_t));\r
-    if(!bc->refctr)\r
-        goto error;\r
-\r
-    bc->lru_id = malloc(cnt * sizeof(uint32_t));\r
-    if(!bc->lru_id)\r
-        goto error;\r
-\r
-    bc->free_delay = malloc(cnt * sizeof(uint8_t));\r
-    if(!bc->free_delay)\r
-        goto error;\r
-\r
-    bc->lba = malloc(cnt * sizeof(uint64_t));\r
-    if(!bc->lba)\r
-        goto error;\r
-\r
-    bc->dirty = malloc(cnt * sizeof(bool));\r
-    if(!bc->dirty)\r
-        goto error;\r
-\r
-\r
-    bc->data = malloc(cnt * itemsize);\r
-    if(!bc->data)\r
-        goto error;\r
-\r
-    memset(bc->refctr, 0, cnt * sizeof(uint32_t));\r
-    memset(bc->lru_id, 0, cnt * sizeof(uint32_t));\r
-    memset(bc->free_delay, 0, cnt * sizeof(uint8_t));\r
-    memset(bc->lba, 0, cnt * sizeof(uint64_t));\r
-    memset(bc->dirty, 0, cnt * sizeof(bool));\r
-\r
-    bc->cnt = cnt;\r
-    bc->itemsize = itemsize;\r
-    bc->ref_blocks = 0;\r
-    bc->max_ref_blocks = 0;\r
-\r
-    return EOK;\r
-\r
-    error:\r
-\r
-    if(bc->refctr)\r
-        free(bc->refctr);\r
-\r
-    if(bc->lru_id)\r
-        free(bc->lru_id);\r
-\r
-    if(bc->free_delay)\r
-        free(bc->free_delay);\r
-\r
-    if(bc->lba)\r
-        free(bc->lba);\r
-\r
-    if(bc->dirty)\r
-       free(bc->dirty);\r
-\r
-    if(bc->data)\r
-        free(bc->data);\r
-\r
-    memset(bc, 0, sizeof(struct ext4_bcache));\r
-\r
-    return ENOMEM;\r
-}\r
-\r
-int ext4_bcache_fini_dynamic(struct ext4_bcache *bc)\r
-{\r
-    if(bc->refctr)\r
-        free(bc->refctr);\r
-\r
-    if(bc->lru_id)\r
-        free(bc->lru_id);\r
-\r
-    if(bc->free_delay)\r
-        free(bc->free_delay);\r
-\r
-    if(bc->lba)\r
-        free(bc->lba);\r
-\r
-    if(bc->dirty)\r
-       free(bc->dirty);\r
-\r
-    if(bc->data)\r
-        free(bc->data);\r
-\r
-    memset(bc, 0, sizeof(struct ext4_bcache));\r
-\r
-    return EOK;\r
-}\r
-\r
-\r
-int ext4_bcache_alloc(struct ext4_bcache *bc, struct ext4_block *b,\r
-    bool *is_new)\r
-{\r
-    uint32_t i;\r
-    ext4_assert(bc && b && is_new);\r
-\r
-    /*Check if valid.*/\r
-    ext4_assert(b->lb_id);\r
-    if(!b->lb_id){\r
-        ext4_assert(b->lb_id);\r
-    }\r
-\r
-    uint32_t cache_id = bc->cnt;\r
-    uint32_t alloc_id = 0;\r
-\r
-    *is_new = false;\r
-\r
-    /*Find in free blocks (Last Recently Used).*/\r
-    for (i = 0; i < bc->cnt; ++i) {\r
-\r
-        /*Check if block is already in cache*/\r
-        if(b->lb_id == bc->lba[i]){\r
-\r
-            if(!bc->refctr[i] && !bc->free_delay[i])\r
-                bc->ref_blocks++;\r
-\r
-            /*Update reference counter*/\r
-            bc->refctr[i]++;\r
-\r
-            /*Update usage marker*/\r
-            bc->lru_id[i] = ++bc->lru_ctr;\r
-\r
-            /*Set valid cache data and id*/\r
-            b->data = bc->data + i * bc->itemsize;\r
-            b->cache_id = i;\r
-\r
-            return EOK;\r
-        }\r
-\r
-        /*Best fit calculations.*/\r
-        if(bc->refctr[i])\r
-            continue;\r
-\r
-        if(bc->free_delay[i])\r
-            continue;\r
-\r
-        /*Block is unreferenced, but it may exist block with\r
-         * lower usage marker*/\r
-\r
-        /*First find.*/\r
-        if(cache_id == bc->cnt){\r
-            cache_id = i;\r
-            alloc_id = bc->lru_id[i];\r
-            continue;\r
-        }\r
-\r
-        /*Next find*/\r
-        if(alloc_id <= bc->lru_id[i])\r
-            continue;\r
-\r
-        /*This block has lower alloc id marker*/\r
-        cache_id = i;\r
-        alloc_id = bc->lru_id[i];\r
-    }\r
-\r
-\r
-    if(cache_id != bc->cnt){\r
-        /*There was unreferenced block*/\r
-        bc->lba[cache_id] = b->lb_id;\r
-        bc->refctr[cache_id] = 1;\r
-        bc->lru_id[cache_id] = ++bc->lru_ctr;\r
-\r
-        /*Set valid cache data and id*/\r
-        b->data = bc->data + cache_id * bc->itemsize;\r
-        b->cache_id = cache_id;\r
-\r
-        /*Statistics*/\r
-        bc->ref_blocks++;\r
-        if(bc->ref_blocks > bc->max_ref_blocks)\r
-            bc->max_ref_blocks = bc->ref_blocks;\r
-\r
-\r
-        /*Block needs to be read.*/\r
-        *is_new = true;\r
-\r
-        return EOK;\r
-    }\r
-\r
-    ext4_dprintf(EXT4_DEBUG_BCACHE,\r
-        "ext4_bcache_alloc: FAIL, unable to alloc block cache!\n");\r
-    return ENOMEM;\r
-}\r
-\r
-int ext4_bcache_free (struct ext4_bcache *bc, struct ext4_block *b,\r
-    uint8_t free_delay)\r
-{\r
-    ext4_assert(bc && b);\r
-\r
-    /*Check if valid.*/\r
-    ext4_assert(b->lb_id);\r
-\r
-    /*Block should be in cache.*/\r
-    ext4_assert(b->cache_id < bc->cnt);\r
-\r
-    /*Check if someone don't try free unreferenced block cache.*/\r
-    ext4_assert(bc->refctr[b->cache_id]);\r
-\r
-    /*Just decrease reference counter*/\r
-    if(bc->refctr[b->cache_id])\r
-        bc->refctr[b->cache_id]--;\r
-\r
-    if(free_delay)\r
-        bc->free_delay[b->cache_id] = free_delay;\r
-\r
-    /*Update statistics*/\r
-    if(!bc->refctr[b->cache_id] && !bc->free_delay[b->cache_id])\r
-        bc->ref_blocks--;\r
-\r
-    b->lb_id = 0;\r
-    b->data = 0;\r
-    b->cache_id = 0;\r
-\r
-    return EOK;\r
-}\r
-\r
-\r
-\r
-bool ext4_bcache_is_full(struct ext4_bcache *bc)\r
-{\r
-    return (bc->cnt == bc->ref_blocks);\r
-}\r
-\r
-/**\r
- * @}\r
- */\r
-\r
-\r
+/*
+ * Copyright (c) 2013 Grzegorz Kostka (kostka.grzegorz@gmail.com)
+ * All rights reserved.
+ *
+ * Redistribution and use in source and binary forms, with or without
+ * modification, are permitted provided that the following conditions
+ * are met:
+ *
+ * - Redistributions of source code must retain the above copyright
+ *   notice, this list of conditions and the following disclaimer.
+ * - Redistributions in binary form must reproduce the above copyright
+ *   notice, this list of conditions and the following disclaimer in the
+ *   documentation and/or other materials provided with the distribution.
+ * - The name of the author may not be used to endorse or promote products
+ *   derived from this software without specific prior written permission.
+ *
+ * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
+ * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
+ * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
+ * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
+ * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
+ * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
+ * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
+ * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
+ * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
+ * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
+ */
+
+/** @addtogroup lwext4
+ * @{
+ */
+/**
+ * @file  ext4_bcache.c
+ * @brief Block cache allocator.
+ */
+
+#include "ext4_config.h"
+#include "ext4_bcache.h"
+#include "ext4_debug.h"
+#include "ext4_errno.h"
+
+#include <string.h>
+#include <stdlib.h>
+
+int ext4_bcache_init_dynamic(struct ext4_bcache *bc, uint32_t cnt,
+                            uint32_t itemsize)
+{
+       ext4_assert(bc && cnt && itemsize);
+
+       memset(bc, 0, sizeof(struct ext4_bcache));
+
+       bc->data = malloc(cnt * itemsize);
+       if (!bc->data)
+               goto error;
+
+       bc->cnt = cnt;
+       bc->itemsize = itemsize;
+       bc->ref_blocks = 0;
+       bc->max_ref_blocks = 0;
+
+       return EOK;
+
+error:
+
+       if (bc->data)
+               free(bc->data);
+
+       memset(bc, 0, sizeof(struct ext4_bcache));
+
+       return ENOMEM;
+}
+
+int ext4_bcache_fini_dynamic(struct ext4_bcache *bc)
+{
+       if (bc->data)
+               free(bc->data);
+
+       memset(bc, 0, sizeof(struct ext4_bcache));
+
+       return EOK;
+}
+
+int ext4_bcache_alloc(struct ext4_bcache *bc, struct ext4_block *b,
+                     bool *is_new)
+{
+       uint32_t i;
+       ext4_assert(bc && b && is_new);
+
+       /*Check if valid.*/
+       ext4_assert(b->lb_id);
+       if (!b->lb_id) {
+               ext4_assert(b->lb_id);
+       }
+
+       uint32_t cache_id = bc->cnt;
+       uint32_t alloc_id = 0;
+
+       *is_new = false;
+
+       /*Find in free blocks (Last Recently Used).*/
+       for (i = 0; i < bc->cnt; ++i) {
+
+               /*Check if block is already in cache*/
+               if (b->lb_id == bc->lba[i]) {
+
+                       if (!bc->refctr[i] && !bc->free_delay[i])
+                               bc->ref_blocks++;
+
+                       /*Update reference counter*/
+                       bc->refctr[i]++;
+
+                       /*Update usage marker*/
+                       bc->lru_id[i] = ++bc->lru_ctr;
+
+                       /*Set valid cache data and id*/
+                       b->data = bc->data + i * bc->itemsize;
+                       b->cache_id = i;
+
+                       /* If data in the caxhe is up-to-date */
+                       b->uptodate = ext4_bcache_test_flag(bc, i, BC_UPTODATE);
+
+                       return EOK;
+               }
+
+               /*Best fit calculations.*/
+               if (bc->refctr[i])
+                       continue;
+
+               if (bc->free_delay[i])
+                       continue;
+
+               /*Block is unreferenced, but it may exist block with
+                * lower usage marker*/
+
+               /*First find.*/
+               if (cache_id == bc->cnt) {
+                       cache_id = i;
+                       alloc_id = bc->lru_id[i];
+                       continue;
+               }
+
+               /*Next find*/
+               if (alloc_id <= bc->lru_id[i])
+                       continue;
+
+               /*This block has lower alloc id marker*/
+               cache_id = i;
+               alloc_id = bc->lru_id[i];
+       }
+
+       if (cache_id != bc->cnt) {
+               /*There was unreferenced block*/
+               bc->lba[cache_id] = b->lb_id;
+               bc->refctr[cache_id] = 1;
+               bc->lru_id[cache_id] = ++bc->lru_ctr;
+
+               /*Set valid cache data and id*/
+               b->data = bc->data + cache_id * bc->itemsize;
+               b->cache_id = cache_id;
+
+               /* Data in the cache is not up-to-date anymore. */
+               ext4_bcache_clear_flag(bc, cache_id, BC_UPTODATE);
+               b->uptodate = false;
+
+               /*Statistics*/
+               bc->ref_blocks++;
+               if (bc->ref_blocks > bc->max_ref_blocks)
+                       bc->max_ref_blocks = bc->ref_blocks;
+
+               /*Block needs to be read.*/
+               *is_new = true;
+
+               return EOK;
+       }
+
+       ext4_dbg(DEBUG_BCACHE, DBG_ERROR
+                    "unable to alloc block cache!\n");
+       return ENOMEM;
+}
+
+int ext4_bcache_free(struct ext4_bcache *bc, struct ext4_block *b,
+                    uint8_t free_delay)
+{
+       ext4_assert(bc && b);
+
+       /*Check if valid.*/
+       ext4_assert(b->lb_id);
+
+       /*Block should be in cache.*/
+       ext4_assert(b->cache_id < bc->cnt);
+
+       /*Check if someone don't try free unreferenced block cache.*/
+       ext4_assert(bc->refctr[b->cache_id]);
+
+       /*Just decrease reference counter*/
+       if (bc->refctr[b->cache_id])
+               bc->refctr[b->cache_id]--;
+
+       if (free_delay)
+               bc->free_delay[b->cache_id] = free_delay;
+
+       /*Update statistics*/
+       if (!bc->refctr[b->cache_id] && !bc->free_delay[b->cache_id])
+               bc->ref_blocks--;
+
+       b->lb_id = 0;
+       b->data = 0;
+       b->cache_id = 0;
+       b->uptodate = false;
+
+       return EOK;
+}
+
+bool ext4_bcache_is_full(struct ext4_bcache *bc)
+{
+       return (bc->cnt == bc->ref_blocks);
+}
+
+/**
+ * @}
+ */