Compressed sensing is a novel theory for signal sampling, which breaks through Nyquist/Shannon sampling limitation and makes it into reality that one can efficiently collect and robustly reconstruct a sparse signal. However, some signals exhibit additional structures in some redundant dictionaries, which is called block-sparse signal. In this study, non-convex block-sparse compressed sensing with redundant dictionaries is investigated. Under the block D-RIP condition <alternatives>$\lpar \sqrt 2 /2\rpar \le \delta _{2k\vert \tau } \lt 1$<mml:math overflow="scroll"><mml:mo stretchy="false">(</mml:mo><mml:msqrt><mml:mn>2</mml:mn></mml:msqrt><mml:mrow><mml:mo>/</mml:mo></mml:mrow><mml:mn>2</mml:mn><mml:mo stretchy="false">)</mml:mo><mml:mo>≤</mml:mo><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo><</mml:mo><mml:mn>1</mml:mn></mml:math><inline-graphic xlink:href="IET-SPR.2016.0272.IM1.gif" /></alternatives>, a sufficient condition for robust signal reconstruction with redundant dictionaries by mixed <alternatives>$\ell _2/\ell _p\lpar 0 \lt p \lt 1\rpar $<mml:math overflow="scroll"><mml:msub><mml:mi>ℓ</mml:mi><mml:mn>2</mml:mn></mml:msub><mml:mrow><mml:mo>/</mml:mo></mml:mrow><mml:msub><mml:mi>ℓ</mml:mi><mml:mi>p</mml:mi></mml:msub><mml:mo stretchy="false">(</mml:mo><mml:mn>0</mml:mn><mml:mo><</mml:mo><mml:mi>p</mml:mi><mml:mo><</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy="false">)</mml:mo></mml:math><inline-graphic xlink:href="IET-SPR.2016.0272.IM2.gif" /></alternatives> minimisation is established. Furthermore, the authors’ theoretical results show that, under the assumption that <alternatives>$\lpar \sqrt 2 /2\rpar \le \delta _{2k\vert \tau } \lt 1$<mml:math overflow="scroll"><mml:mo stretchy="false">(</mml:mo><mml:msqrt><mml:mn>2</mml:mn></mml:msqrt><mml:mrow><mml:mo>/</mml:mo></mml:mrow><mml:mn>2</mml:mn><mml:mo stretchy="false">)</mml:mo><mml:mo>≤</mml:mo><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo><</mml:mo><mml:mn>1</mml:mn></mml:math><inline-graphic xlink:href="IET-SPR.2016.0272.IM3.gif" /></alternatives>, <alternatives>$p \in \lpar 0\comma \; \hat p\rsqb $<mml:math overflow="scroll"><mml:mi>p</mml:mi><mml:mo>∈</mml:mo><mml:mo stretchy="false">(</mml:mo><mml:mn>0</mml:mn><mml:mo>,</mml:mo><mml:mrow><mml:mover><mml:mi>p</mml:mi><mml:mo stretchy="false">^</mml:mo></mml:mover></mml:mrow><mml:mo stretchy="false">]</mml:mo></mml:math><inline-graphic xlink:href="IET-SPR.2016.0272.IM4.gif" /></alternatives>, where <disp-formula id="UM1"> <alternatives> $$\hat p = \left\{{\matrix{ {1.6835\lpar 1 - \delta _{2k\vert \tau }\rpar \comma \; } & {\delta _{2k\vert \tau } \in \lsqb \displaystyle{{\sqrt 2 } \over 2}\comma \; 0.73\rpar } \cr {0.45418\comma \; } & {\delta _{2k\vert \tau } \in \lpar 0.73\comma \; 0.7983\rpar } \cr {2.2522\lpar 1 - \delta _{2k\vert \tau }\rpar \comma \; } & {\delta _{2k\vert \tau } \in \lsqb 0.7983\comma \; 1\rpar \comma \; } \cr } } \right.$$<mml:math overflow="scroll"><mml:mrow><mml:mover><mml:mi>p</mml:mi><mml:mo stretchy="false">^</mml:mo></mml:mover></mml:mrow><mml:mo>=</mml:mo><mml:mfenced close="" open="{"><mml:mrow><mml:mtable columnspacing="1em" rowspacing="4pt"><mml:mtr><mml:mtd><mml:mrow><mml:mn>1.6835</mml:mn><mml:mo stretchy="false">(</mml:mo><mml:mn>1</mml:mn><mml:mo>−</mml:mo><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo stretchy="false">)</mml:mo><mml:mo>,</mml:mo></mml:mrow></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo>∈</mml:mo><mml:mo stretchy="false">[</mml:mo><mml:mstyle><mml:mrow><mml:mfrac><mml:mrow><mml:msqrt><mml:mn>2</mml:mn></mml:msqrt></mml:mrow><mml:mn>2</mml:mn></mml:mfrac></mml:mrow><mml:mo>,</mml:mo><mml:mn>0.73</mml:mn><mml:mo stretchy="false">)</mml:mo></mml:mstyle></mml:mrow></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mrow><mml:mn>0.45418</mml:mn><mml:mo>,</mml:mo></mml:mrow></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo>∈</mml:mo><mml:mo stretchy="false">(</mml:mo><mml:mn>0.73</mml:mn><mml:mo>,</mml:mo><mml:mn>0.7983</mml:mn><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mrow><mml:mn>2.2522</mml:mn><mml:mo stretchy="false">(</mml:mo><mml:mn>1</mml:mn><mml:mo>−</mml:mo><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo stretchy="false">)</mml:mo><mml:mo>,</mml:mo></mml:mrow></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi>δ</mml:mi><mml:mrow><mml:mn>2</mml:mn><mml:mi>k</mml:mi><mml:mo fence="false" stretchy="false">|</mml:mo><mml:mi>τ</mml:mi></mml:mrow></mml:msub><mml:mo>∈</mml:mo><mml:mo stretchy="false">[</mml:mo><mml:mn>0.7983</mml:mn><mml:mo>,</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy="false">)</mml:mo><mml:mo>,</mml:mo></mml:mrow></mml:mtd></mml:mtr></mml:mtable></mml:mrow></mml:mfenced></mml:math> <graphic orientation="portrait" position="float" xlink:href="IET-SPR.2016.0272.UM1.gif" /> </alternatives></disp-formula> then the block k-sparse signal can be stably reconstructed via non-convex ℓ2/ℓp minimisation with redundant dictionaries in the presence of noise. Particularly, this improves the existed result when the block-sparse signal degenerate to the conventional signal case. Besides, the authors also obtain robust reconstruction condition and error upper bound estimation when the block number is no more than four times the sparsity of the block signal<alternatives>$\lpar d \le 4k\rpar $<mml:math overflow="scroll"><mml:mo stretchy="false">(</mml:mo><mml:mi>d</mml:mi><mml:mo>≤</mml:mo><mml:mn>4</mml:mn><mml:mi>k</mml:mi><mml:mo stretchy="false">)</mml:mo></mml:math><inline-graphic xlink:href="IET-SPR.2016.0272.IM5.gif" /></alternatives>. Moreover, the numerical experiments to some extent testify the performance of non-convex <alternatives>$\ell _2/\ell _p\lpar 0 \lt p \lt 1\rpar $<mml:math overflow="scroll"><mml:msub><mml:mi>ℓ</mml:mi><mml:mn>2</mml:mn></mml:msub><mml:mrow><mml:mo>/</mml:mo></mml:mrow><mml:msub><mml:mi>ℓ</mml:mi><mml:mi>p</mml:mi></mml:msub><mml:mo stretchy="false">(</mml:mo><mml:mn>0</mml:mn><mml:mo><</mml:mo><mml:mi>p</mml:mi><mml:mo><</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy="false">)</mml:mo></mml:math><inline-graphic xlink:href="IET-SPR.2016.0272.IM6.gif" /></alternatives> minimisation with redundant dictionaries.