Najniższa cena w ostatnich 30 dniach, czyli jak dyrektywa OMNIBUS zmieniła nasze zakupy

Alicja Wasilewska - adwokat, Walczak & Wasilewska Adwokaci

Jeśli robicie Państwo zakupy, z pewnością już te zmiany zauważyliście. Niby niewielkie, a tak naprawdę rewolucyjne w świetle naszych praw i interesów jako konsumentów (tak, konsumentów, bowiem każdy z nas, dokonując zakupów od przedsiębiorcy w celach niezwiązanych bezpośrednio z prowadzoną przez nas działalnością gospodarczą, o ile takową prowadzimy, jest przez prawo traktowany jak konsument właśnie). Zmiany te zawdzięczamy implementacji unijnej dyrektywy OMNIBUS, której podstawowym założeniem było wzmocnienie skuteczności obowiązujących przepisów konsumenckich w czasach dynamicznej cyfryzacji gospodarki.
Co mogło już zwrócić Państwa uwagę? Na pewno nowy obowiązek nałożony na sprzedawców w ramach prowadzonych przez Internet bądź w sklepach stacjonarnych akcji promocyjnych. Od 1 stycznia 2023 roku sprzedawca, który prowadzi akcję promocyjną związaną z obniżaniem cen, musi, poza przekreśloną starą ceną produktu, jak to miało miejsce dotychczas, podać również informację o najniższej cenie tego towaru lub tej usługi, która obowiązywała w okresie 30 dni przed wprowadzeniem obniżki. W przypadku produktów będących w ofercie przedsiębiorcy krócej niż 30 dni uwidoczniona powinna być najniższa cena od rozpoczęcia sprzedaży do wprowadzenia obniżki. Sposób, w jaki sprzedawca wykona ten obowiązek, jest wprawdzie dowolny, jednak informacja o najniższej cenie z ostatnich 30 dni nie może być ukryta, a umieszczona bezpośrednio przy produkcie, w miejscu ogólnodostępnym i dobrze widocznym dla konsumentów. Koniec więc z manipulowaniem cenami i pozornym zmniejszaniem cen wcześniej podniesionych na potrzeby obniżki.
Czytacie Państwo opinie umieszczane przez klientów na stronach sklepów internetowych? Od stycznia musimy być także informowani przez sprzedawców o tym, czy zamieszczają wszystkie opinie, czy tylko te pozytywne, a także o dołożeniu przez sprzedawców najwyższych starań przy weryfikacji autentyczności recenzji konsumenckich produktów. Sprzedawcy winni więc wyraźnie poinformować, czy i w jaki sposób zapewniają, że publikowane recenzje pochodzą od konsumentów, którzy zakupili określony produkt. Komisja Europejska oraz Prezes UOKiK wskazują, że najprostszym i najefektywniejszym narzędziem służącym do weryfikacji zamieszczanych opinii może być udostępnianie klientom indywidualnego linku do wystawienia opinii lub stworzenie wymogu zarejestrowania konta przed sporządzeniem opinii. Koniec więc z fałszywymi opiniami i kupowaniem rekomendacji.
I jeszcze jedna drobna, acz istotna zmiana z wielu wprowadzonych, odnosząca się do zasad reklamacji. Od stycznia konsument ma w pierwszej kolejności prawo do żądania naprawy lub wymiany wadliwego produktu, a dopiero jeśli powyższe działania nie są możliwe, nie zostaną wykonane albo ich wykonanie wymagałoby od sprzedawcy poniesienia nadmiernych kosztów, może żądać częściowego lub całkowitego zwrotu pieniędzy. Sprzedawca odpowiada za wady towaru przez 2 lata od jego wydania klientowi, a termin ten nie może zostać skrócony w przypadku rzeczy używanych. Termin przedawnienia roszczeń reklamacyjnych wynosi teraz 6 lat.
Z założenia więc – dzięki wszystkim rozwiązaniom dyrektywy OMNIBUS – proces zakupów powinien stać się bardziej przejrzysty. Transparentność rozwiązań wprowadzono w interesie nas jako konsumentów i oceniane są one dotychczas pozytywnie w czasach dynamicznej cyfryzacji. Wystarczy tylko życzyć sobie, by wszyscy sprzedawcy sumiennie stosowali się do implementowanych rozwiązań.

REKLAMA
REKLAMA

Może cię zainteresować:

Alicja Wasilewska - adwokat, Walczak & Wasilewska Adwokaci
REKLAMA
REKLAMA

Rozwiązania prawne a sztuczna inteligencja

Artykuł przeczytasz w: 4 min.


Współczesny świat staje przed wyzwaniami, które związane są z dynamicznym rozwojem technologii, a szczególnie sztucznej inteligencji (AI). Potrafi ona zrewolucjonizować wiele aspektów życia społecznego, gospodarczego i osobistego. Jednocześnie jednak narasta potrzeba wprowadzenia odpowiednich regulacji prawnych, które pozwolą na ochronę interesów obywateli oraz zapewnią odpowiedzialność w korzystaniu z tych zaawansowanych technologii. Postaram się przedstawić wybrane aspekty dotyczące uregulowań prawnych związanych z AI, w szczególności w kontekście ochrony danych osobowych i biometrycznych.

tekst: Marta Ast, Ast Adwokaci ; zdjęcia: Adobe Stock

AI ma zdolność do stałego uczenia się i dostosowywania do zmieniającego się otoczenia, co stawia jej użytkowników oraz twórców przed szeregiem wyzwań prawnych. Przede wszystkim, w miarę jak sztuczna inteligencja zostaje zintegrowana z różnymi dziedzinami życia, pojawia się potrzeba definiowania, kto ponosi odpowiedzialność za podejmowane przez nią decyzje. Krótko mówiąc, aby skutecznie zarządzać zagrożeniami związanymi z AI, konieczne jest stworzenie ram prawnych, które zintegrują zasady etyczne z normami prawnymi. Wiele krajów już podjęło próby stworzenia takich regulacji, lecz brakuje uniwersalnych rozwiązań, które mogłyby być stosowane globalnie. Powinny one obejmować m.in. przepisy dotyczące odpowiedzialności cywilnej i karnej dla jednostek i firm, które projektują i wdrażają systemy AI, tzn. obowiązek informacyjny dla przedsiębiorstw korzystających z AI związany z użyciem danych osobowych, a także nadzór etyczny nad rozwojem i zastosowaniem technologii AI.

20241112 AdobeStock 952544318

Sztuczna inteligencja często operuje na ogromnych zbiorach danych, które mogą zawierać dane osobowe. W Polsce, jak i w całej Unii Europejskiej, kwestie te regulowane są przez Ogólne Rozporządzenie o Ochronie Danych Osobowych (RODO), które nakłada szereg obowiązków na administratorów danych. Z perspektywy prawnej, kluczowe aspekty to przede wszystkim zgoda na przetwarzanie danych przez podmioty, które wykorzystują AI. Równie ważne staje się wyjaśnienie użytkownikom, w jaki sposób ich dane będą używane i jak mogą wpłynąć na podejmowane przez system decyzje. Ponadto użytkownicy powinni uzyskać prawo do informacji, jakie dane są o nich gromadzone oraz mieć możliwość ich usunięcia. Twórcy systemów AI powinni zatem przewidzieć, jak spełnić te obowiązki, szczególnie gdy algorytmy uczą się na podstawie dużych zbiorów danych.

Organizacje powinny zadbać o odpowiednie zabezpieczenia, które chronią dane przed nieautoryzowanym dostępem. Dane biometryczne, takie jak odciski palców, skany twarzy czy rozpoznawanie głosu, są jednymi z najbardziej wrażliwych kategorii danych osobowych. Wykorzystanie tych danych wiąże się z jeszcze większymi wyzwaniami i zagrożeniami. Zgodnie z RODO, dane biometryczne stanowią kategorię danych szczególnych, co oznacza, że ich przetwarzanie wymaga specjalnych warunków. Obejmuje to m.in. konieczność uzyskania zgody osoby, której dotyczą oraz wskazanie konkretnego celu przetwarzania. Wprowadzenie regulacji dotyczących wykorzystania danych biometrycznych w kontekście AI powinno dotyczyć nie tylko samego pozyskiwania ich, ale także sprawozdawczości oraz możliwości ich „recyklingu” w kontekście uczenia się systemów.

20240626 AdobeStock 883270127

Zarówno ochrona danych osobowych, jak i biometrycznych są niezwykle ważnymi aspektami, które powinny być wzięte pod uwagę przy tworzeniu nowych regulacji prawnych dotyczących sztucznej inteligencji. Potrzeba legislacji, która zabezpieczy nasze prawa, a jednocześnie umożliwi rozwój innowacji technologicznych, wydaje się niezbędna. Ważne jest zrozumienie, że odpowiednie rozwiązania prawne mogą się przyczynić do budowy zaufania społecznego w technologie oparte na sztucznej inteligencji, a także zwiększyć ich efektywność i bezpieczeństwo. W obliczu rosnącej roli AI w naszym życiu, priorytetem powinna być nie tylko innowacyjność, ale także odpowiedzialność, transparentność i ochrona prywatności.

W kolejnym felietonie poruszę istotną kwestię, czy AI może zastąpić prawników.

Marta Ast

Marta Ast

Adwokat Kancelaria Adwokacka AST-adwokaci. www.ast-adwokaci.pl
REKLAMA
REKLAMA
REKLAMA
REKLAMA