Pytanie moje jest takie samo jak w temacie, koleżanki z pracy się zachwycają, ja powiem szczerze, że rzadko zwracam uwagę czy coż jest eko lub bio. Czy produkty naturalne, organiczne itp. są lepszej jakożci i zdrowsze dla nas? Tylko tak z Waszego dożwiadczenia, bo w mediach to wiadomo, że tak:)