Merge master.
[dcpomatic.git] / src / lib / image.cc
index b706f7fdc3f68fdcf7b611835631ce315eff016a..bc64ba3b82373cb34bce1aff4e0f450d93ce5b29 100644 (file)
@@ -1,5 +1,5 @@
 /*
-    Copyright (C) 2012 Carl Hetherington <cth@carlh.net>
+    Copyright (C) 2012-2014 Carl Hetherington <cth@carlh.net>
 
     This program is free software; you can redistribute it and/or modify
     it under the terms of the GNU General Public License as published by
@@ -26,16 +26,21 @@ extern "C" {
 #include <libswscale/swscale.h>
 #include <libavutil/pixfmt.h>
 #include <libavutil/pixdesc.h>
-#include <libpostproc/postprocess.h>
 }
 #include "image.h"
 #include "exceptions.h"
 #include "scaler.h"
 #include "timer.h"
+#include "rect.h"
+#include "md5_digester.h"
+
+#include "i18n.h"
 
 using std::string;
 using std::min;
 using std::cout;
+using std::cerr;
+using std::list;
 using boost::shared_ptr;
 using dcp::Size;
 
@@ -89,26 +94,38 @@ Image::crop_scale_window (Crop crop, dcp::Size inter_size, dcp::Size out_size, S
        */
        assert (aligned ());
 
+       assert (out_size.width >= inter_size.width);
+       assert (out_size.height >= inter_size.height);
+
+       /* Here's an image of out_size */
        shared_ptr<Image> out (new Image (out_format, out_size, out_aligned));
        out->make_black ();
-       
-       dcp::Size cropped_size = crop.apply (size ());
 
+       /* Size of the image after any crop */
+       dcp::Size const cropped_size = crop.apply (size ());
+
+       /* Scale context for a scale from cropped_size to inter_size */
        struct SwsContext* scale_context = sws_getContext (
                        cropped_size.width, cropped_size.height, pixel_format(),
                        inter_size.width, inter_size.height, out_format,
                        scaler->ffmpeg_id (), 0, 0, 0
                );
 
+       if (!scale_context) {
+               throw StringError (N_("Could not allocate SwsContext"));
+       }
+
+       /* Prepare input data pointers with crop */
        uint8_t* scale_in_data[components()];
        for (int c = 0; c < components(); ++c) {
                scale_in_data[c] = data()[c] + int (rint (bytes_per_pixel(c) * crop.left)) + stride()[c] * (crop.top / line_factor(c));
        }
 
+       /* Corner of the image within out_size */
        Position<int> const corner ((out_size.width - inter_size.width) / 2, (out_size.height - inter_size.height) / 2);
 
-       uint8_t* scale_out_data[components()];
-       for (int c = 0; c < components(); ++c) {
+       uint8_t* scale_out_data[out->components()];
+       for (int c = 0; c < out->components(); ++c) {
                scale_out_data[c] = out->data()[c] + int (rint (out->bytes_per_pixel(c) * corner.x)) + out->stride()[c] * corner.y;
        }
 
@@ -153,51 +170,6 @@ Image::scale (dcp::Size out_size, Scaler const * scaler, AVPixelFormat out_forma
        return scaled;
 }
 
-/** Run a FFmpeg post-process on this image and return the processed version.
- *  @param pp Flags for the required set of post processes.
- *  @return Post-processed image.
- */
-shared_ptr<Image>
-Image::post_process (string pp, bool aligned) const
-{
-       shared_ptr<Image> out (new Image (pixel_format(), size (), aligned));
-
-       int pp_format = 0;
-       switch (pixel_format()) {
-       case PIX_FMT_YUV420P:
-               pp_format = PP_FORMAT_420;
-               break;
-       case PIX_FMT_YUV422P10LE:
-       case PIX_FMT_YUV422P:
-       case PIX_FMT_UYVY422:
-               pp_format = PP_FORMAT_422;
-               break;
-       case PIX_FMT_YUV444P:
-       case PIX_FMT_YUV444P9BE:
-       case PIX_FMT_YUV444P9LE:
-       case PIX_FMT_YUV444P10BE:
-       case PIX_FMT_YUV444P10LE:
-               pp_format = PP_FORMAT_444;
-       default:
-               throw PixelFormatError ("post_process", pixel_format());
-       }
-               
-       pp_mode* mode = pp_get_mode_by_name_and_quality (pp.c_str (), PP_QUALITY_MAX);
-       pp_context* context = pp_get_context (size().width, size().height, pp_format | PP_CPU_CAPS_MMX2);
-
-       pp_postprocess (
-               (const uint8_t **) data(), stride(),
-               out->data(), out->stride(),
-               size().width, size().height,
-               0, 0, mode, context, 0
-               );
-               
-       pp_free_mode (mode);
-       pp_free_context (context);
-
-       return out;
-}
-
 shared_ptr<Image>
 Image::crop (Crop crop, bool aligned) const
 {
@@ -349,6 +321,9 @@ Image::make_black ()
        case PIX_FMT_RGBA:
        case PIX_FMT_ABGR:
        case PIX_FMT_BGRA:
+       case PIX_FMT_RGB555LE:
+       case PIX_FMT_RGB48LE:
+       case PIX_FMT_RGB48BE:
                memset (data()[0], 0, lines(0) * stride()[0]);
                break;
 
@@ -373,19 +348,32 @@ Image::make_black ()
        }
 }
 
+void
+Image::make_transparent ()
+{
+       if (_pixel_format != PIX_FMT_RGBA) {
+               throw PixelFormatError ("make_transparent()", _pixel_format);
+       }
+
+       memset (data()[0], 0, lines(0) * stride()[0]);
+}
+
 void
 Image::alpha_blend (shared_ptr<const Image> other, Position<int> position)
 {
-       int this_bpp = 0;
-       int other_bpp = 0;
+       assert (other->pixel_format() == PIX_FMT_RGBA);
+       int const other_bpp = 4;
 
-       if (_pixel_format == PIX_FMT_BGRA && other->pixel_format() == PIX_FMT_RGBA) {
+       int this_bpp = 0;
+       switch (_pixel_format) {
+       case PIX_FMT_BGRA:
+       case PIX_FMT_RGBA:
                this_bpp = 4;
-               other_bpp = 4;
-       } else if (_pixel_format == PIX_FMT_RGB24 && other->pixel_format() == PIX_FMT_RGBA) {
+               break;
+       case PIX_FMT_RGB24:
                this_bpp = 3;
-               other_bpp = 4;
-       } else {
+               break;
+       default:
                assert (false);
        }
 
@@ -406,13 +394,15 @@ Image::alpha_blend (shared_ptr<const Image> other, Position<int> position)
        }
 
        for (int ty = start_ty, oy = start_oy; ty < size().height && oy < other->size().height; ++ty, ++oy) {
-               uint8_t* tp = data()[0] + ty * stride()[0] + position.x * this_bpp;
+               uint8_t* tp = data()[0] + ty * stride()[0] + start_tx * this_bpp;
                uint8_t* op = other->data()[0] + oy * other->stride()[0];
                for (int tx = start_tx, ox = start_ox; tx < size().width && ox < other->size().width; ++tx, ++ox) {
                        float const alpha = float (op[3]) / 255;
-                       tp[0] = (tp[0] * (1 - alpha)) + op[0] * alpha;
-                       tp[1] = (tp[1] * (1 - alpha)) + op[1] * alpha;
-                       tp[2] = (tp[2] * (1 - alpha)) + op[2] * alpha;
+                       tp[0] = op[0] + (tp[0] * (1 - alpha));
+                       tp[1] = op[1] + (tp[1] * (1 - alpha));
+                       tp[2] = op[2] + (tp[2] * (1 - alpha));
+                       tp[3] = op[3] + (tp[3] * (1 - alpha));
+                       
                        tp += this_bpp;
                        op += other_bpp;
                }
@@ -530,8 +520,13 @@ Image::allocate ()
                   OS X crashes on this illegal read, though other operating systems don't
                   seem to mind.  The nasty + 1 in this malloc makes sure there is always a byte
                   for that instruction to read safely.
+
+                  Further to the above, valgrind is now telling me that ff_rgb24ToY_ssse3
+                  over-reads by more then _avx.  I can't follow the code to work out how much,
+                  so I'll just over-allocate by 32 bytes and have done with it.  Empirical
+                  testing suggests that it works.
                */
-               _data[i] = (uint8_t *) wrapped_av_malloc (_stride[i] * lines (i) + 1);
+               _data[i] = (uint8_t *) wrapped_av_malloc (_stride[i] * lines (i) + 32);
        }
 }
 
@@ -661,3 +656,173 @@ Image::aligned () const
        return _aligned;
 }
 
+PositionImage
+merge (list<PositionImage> images)
+{
+       if (images.empty ()) {
+               return PositionImage ();
+       }
+
+       if (images.size() == 1) {
+               return images.front ();
+       }
+
+       dcpomatic::Rect<int> all (images.front().position, images.front().image->size().width, images.front().image->size().height);
+       for (list<PositionImage>::const_iterator i = images.begin(); i != images.end(); ++i) {
+               all.extend (dcpomatic::Rect<int> (i->position, i->image->size().width, i->image->size().height));
+       }
+
+       shared_ptr<Image> merged (new Image (images.front().image->pixel_format (), dcp::Size (all.width, all.height), true));
+       merged->make_transparent ();
+       for (list<PositionImage>::const_iterator i = images.begin(); i != images.end(); ++i) {
+               merged->alpha_blend (i->image, i->position - all.position());
+       }
+
+       return PositionImage (merged, all.position ());
+}
+
+string
+Image::digest () const
+{
+       MD5Digester digester;
+
+       for (int i = 0; i < components(); ++i) {
+               digester.add (data()[i], line_size()[i]);
+       }
+
+       return digester.get ();
+}
+
+bool
+operator== (Image const & a, Image const & b)
+{
+       if (a.components() != b.components() || a.pixel_format() != b.pixel_format() || a.aligned() != b.aligned()) {
+               return false;
+       }
+
+       for (int c = 0; c < a.components(); ++c) {
+               if (a.lines(c) != b.lines(c) || a.line_size()[c] != b.line_size()[c] || a.stride()[c] != b.stride()[c]) {
+                       return false;
+               }
+
+               uint8_t* p = a.data()[c];
+               uint8_t* q = b.data()[c];
+               for (int y = 0; y < a.lines(c); ++y) {
+                       if (memcmp (p, q, a.line_size()[c]) != 0) {
+                               return false;
+                       }
+
+                       p += a.stride()[c];
+                       q += b.stride()[c];
+               }
+       }
+
+       return true;
+}
+
+void
+Image::fade (float f)
+{
+       switch (_pixel_format) {
+       case PIX_FMT_YUV420P:
+       case PIX_FMT_YUV422P:
+       case PIX_FMT_YUV444P:
+       case PIX_FMT_YUV411P:
+       case PIX_FMT_YUVJ420P:
+       case PIX_FMT_YUVJ422P:
+       case PIX_FMT_YUVJ444P:
+       case PIX_FMT_RGB24:
+       case PIX_FMT_ARGB:
+       case PIX_FMT_RGBA:
+       case PIX_FMT_ABGR:
+       case PIX_FMT_BGRA:
+       case PIX_FMT_RGB555LE:
+               /* 8-bit */
+               for (int c = 0; c < 3; ++c) {
+                       uint8_t* p = data()[c];
+                       for (int y = 0; y < lines(c); ++y) {
+                               uint8_t* q = p;
+                               for (int x = 0; x < line_size()[c]; ++x) {
+                                       *q = int (float (*q) * f);
+                                       ++q;
+                               }
+                               p += stride()[c];
+                       }
+               }
+               break;
+
+       case PIX_FMT_YUV422P9LE:
+       case PIX_FMT_YUV444P9LE:
+       case PIX_FMT_YUV422P10LE:
+       case PIX_FMT_YUV444P10LE:
+       case PIX_FMT_YUV422P16LE:
+       case PIX_FMT_YUV444P16LE:
+       case AV_PIX_FMT_YUVA420P9LE:
+       case AV_PIX_FMT_YUVA422P9LE:
+       case AV_PIX_FMT_YUVA444P9LE:
+       case AV_PIX_FMT_YUVA420P10LE:
+       case AV_PIX_FMT_YUVA422P10LE:
+       case AV_PIX_FMT_YUVA444P10LE:
+               /* 16-bit little-endian */
+               for (int c = 0; c < 3; ++c) {
+                       int const stride_pixels = stride()[c] / 2;
+                       int const line_size_pixels = line_size()[c] / 2;
+                       uint16_t* p = reinterpret_cast<uint16_t*> (data()[c]);
+                       for (int y = 0; y < lines(c); ++y) {
+                               uint16_t* q = p;
+                               for (int x = 0; x < line_size_pixels; ++x) {
+                                       *q = int (float (*q) * f);
+                                       ++q;
+                               }
+                               p += stride_pixels;
+                       }
+               }
+               break;
+
+       case PIX_FMT_YUV422P9BE:
+       case PIX_FMT_YUV444P9BE:
+       case PIX_FMT_YUV444P10BE:
+       case PIX_FMT_YUV422P10BE:
+       case AV_PIX_FMT_YUVA420P9BE:
+       case AV_PIX_FMT_YUVA422P9BE:
+       case AV_PIX_FMT_YUVA444P9BE:
+       case AV_PIX_FMT_YUVA420P10BE:
+       case AV_PIX_FMT_YUVA422P10BE:
+       case AV_PIX_FMT_YUVA444P10BE:
+       case AV_PIX_FMT_YUVA420P16BE:
+       case AV_PIX_FMT_YUVA422P16BE:
+       case AV_PIX_FMT_YUVA444P16BE:
+               /* 16-bit big-endian */
+               for (int c = 0; c < 3; ++c) {
+                       int const stride_pixels = stride()[c] / 2;
+                       int const line_size_pixels = line_size()[c] / 2;
+                       uint16_t* p = reinterpret_cast<uint16_t*> (data()[c]);
+                       for (int y = 0; y < lines(c); ++y) {
+                               uint16_t* q = p;
+                               for (int x = 0; x < line_size_pixels; ++x) {
+                                       *q = swap_16 (int (float (swap_16 (*q)) * f));
+                                       ++q;
+                               }
+                               p += stride_pixels;
+                       }
+               }
+               break;
+
+       case PIX_FMT_UYVY422:
+       {
+               int const Y = lines(0);
+               int const X = line_size()[0];
+               uint8_t* p = data()[0];
+               for (int y = 0; y < Y; ++y) {
+                       for (int x = 0; x < X; ++x) {
+                               *p = int (float (*p) * f);
+                               ++p;
+                       }
+               }
+               break;
+       }
+
+       default:
+               throw PixelFormatError ("fade()", _pixel_format);
+       }
+}